Шрифт:
Интервал:
Закладка:
2516
Дьюдни А. К. (1989). Компьютер пробует свои силы в прозе и поэзии / В мире науки. 8 августа.
2517
Кондратов А. М. (1987). Формулы чуда. — М.: Детская литература.// https://books.google.ru/books?id=uwsiyAEACAAJ
2518
Lloyd H. A. (2017). Kennings: I’ve Made a Little List / HuffPost, updated Dec 06, 2017 // https://www.huffpost.com/entry/kennings-ive-made-a-littl_b_9198846
2519
Sweet H. (1884) Anglo-Saxon Reader in Prose and Verse. The Clarendon Press // https://books.google.ru/books?id=Itm0AAAAIAAJ
2520
Кондратов А. М. (1987). Формулы чуда. — М.: Детская литература// https://books.google.ru/books?id=uwsiyAEACAAJ
2521
Kantrowitz A. (2016). Google Is Feeding Romance Novels To Its Artificial Intelligence Engine To Make Its Products More Conversational / BuzzFeed News, 4 May 2016 // https://www.buzzfeednews.com/article/alexkantrowitz/googles-artificial-intelligence-engine-reads-romance-novels
2522
Bowman S. R., Vilnis L., Vinyals O., Dai A. M., Jozefowicz R., Bengio S. (2016). Generating Sentences from a Continuous Space // https://arxiv.org/abs/1511.06349
2523
Kiros R., Zhu Y., Salakhutdinov R., Zemel R. S., Torralba A., Urtasun R., Fidler S. (2015). Skip-Thought Vectors // https://arxiv.org/abs/1506.06726
2524
Chen M. X., Lee B. N., Bansal G., Cao Y., Zhang S., Lu J., Tsay J., Wang Y., Dai A. M., Chen Z., Sohn T., Wu Y. (2019). Gmail Smart Compose: Real-Time Assisted Writing // https://arxiv.org/abs/1906.00080
2525
Нейронная оборона — Комиссар Михаил (2018) / https://lyrdb.ru/lyrics/neyronnaya-oborona-komissar-mihail/
2526
Голованов В. (2016). Нейронная оборона: запись альбома-посвящения Егору Летову при помощи нейросетей / Хабр, 28 июня // https://habr.com/ru/post/395503/
2527
В "Яндексе" научили нейросеть писать музыку в стиле Летова и представили слушателям первый альбом (2016) / newsru.com, 28 июня 2016 // https://www.newsru.com/cinema/28jun2016/letov.html
2528
Tikhonov A., Yamshchikov I. P. (2018). Sounds Wilde. Phonetically Extended Embeddings for Author-Stylized Poetry Generation / Proceedings of the Fifteenth Workshop on Computational Research in Phonetics, Phonology, and Morphology, October 2018, Brussels, Belgium, pp. 117–124 // https://doi.org/10.18653/v1/W18-5813
2529
Tikhonov A., Yamshchikov I. P. (2018). Guess who? Multilingual Approach For The Automated Generation Of Author-Stylized Poetry / 2018 IEEE Spoken Language Technology Workshop (SLT) // https://doi.org/10.1109/SLT.2018.8639573
2530
Yamshchikov I. P., Tikhonov A. (2019). Learning Literary Style End-to-end with Artificial Neural Networks / Advances in Science, Technology and Engineering Systems Journal, Vol. 4, No. 6, pp. 115—125 // https://doi.org/10.25046/aj040614
2531
Пекелис В. (1982). Кибернетическая смесь. — М.: Знание.
2532
Бирюков Б. В., Гутчин И. Б. (1982). Машина и творчество. — М.: Радио и связь // http://informaticslib.ru/books/item/f00/s00/z0000024/index.shtml
2533
Radford A., Wu J., Amodei D., Amodei D., Clark J., Brundage M., Sutskever I. (2019). Better Language Models and Their Implications / OpenAI blog, February 14, 2019 // https://openai.com/blog/better-language-models/
2534
Solaiman I., Clark J., Brundage M. (2019). GPT-2: 1.5B Release / OpenAI blog, November 5, 2019 // https://openai.com/blog/gpt-2-1-5b-release/
2535
Radford A., Narasimhan K., Salimans T., Sutskever I. (2018). Improving Language Understanding by Generative Pre-Training // https://paperswithcode.com/paper/improving-language-understanding-by
2536
* Поскольку благодаря появлению трансформерной архитектуры возник ряд моделей с числом параметров, превышающим 100 миллионов, для обозначения таких моделей в научной литературе стали применять специальный термин — «большие языковые модели» (Large Language Model, LLM). Конечно, само значение в 100 миллионов параметров является весьма условным (в некоторых источниках вы найдёте другие значения этой границы, например 1 млрд параметров), поэтому в отношении некоторых моделей могут возникнуть сомнения: считать их большими или нет. Но с практической точки зрения эти споры вряд ли представляют какой-либо интерес.
2537
Holtzman A., Buys J., Du L, Forbes M., Choi Y. (2020). The curious case of neural text degeneration // https://arxiv.org/abs/1904.09751
2538
Radford A., Wu J., Child R., Luan D., Amodei D., Sutskever I. (2019). Language Models are Unsupervised Multitask Learners // https://paperswithcode.com/paper/language-models-are-unsupervised-multitask
2539
Лейзаренко Д. (2019). Нейросеть «Порфирьевич» дописывает любые тексты и стихи на русском языке. Это аналог алгоритма компании Илона Маска / TJournal, 26 дек. // https://tjournal.ru/internet/132982-neyroset-porfirevich-dopisyvaet-lyubye-teksty-i-stihi-na-russkom-yazyke-eto-analog-algoritma-kompanii-ilona-maska
2540
Rajcic N., McCormack J. (2020). Mirror Ritual: An Affective Interface for Emotional Self-Reflection // https://arxiv.org/abs/2004.09685
2541
National Novel Generation Month // https://nanogenmo.github.io/
2542
Kazemi D. (2019). Even a beginner programmer can make a novel generator / Tiny Subversions, Nov 4, 2019 // https://tinysubversions.com/notes/nanogenmo-2019/
2543
Barber G. (2019). Text-Savvy AI Is Here to Write Fiction / Wired, 11.23.2019 // https://www.wired.com/story/nanogenmo-ai-novels-gpt2/
2544
Agafonova Y., Tikhonov A., Yamshchikov I. P. (2020). Paranoid Transformer: Reading Narrative of Madness as Computational Approach to Creativity // https://arxiv.org/abs/2007.06290
2545
Haridy R. (2016). 2016: The year AI got creative / New Atlas, December 12, 2016 // https://newatlas.com/ai-art-film-writing-review/46891/
2546
About CuratedAI // http://curatedai.com/about
2547
Child R., Gray S., Radford A., Sutskever I. (2019). Generating Long Sequences with Sparse Transformers // https://arxiv.org/abs/1904.10509
2548
Beltagy I., Peters M. E., Cohan A. (2020). Longformer: The Long-Document Transformer // https://arxiv.org/abs/2004.05150
2549
Kitaev N., Kaiser Ł., Levskaya A. (2020). Reformer: The Efficient Transformer // https://arxiv.org/abs/2001.04451
2550
Sukhbaatar S., Grave E., Bojanowski P., Joulin A. (2019). Adaptive Attention Span in Transformers // https://arxiv.org/abs/1905.07799
2551
Rae J. W., Potapenko A., Jayakumar S. M., Lillicrap T. P. (2019). Compressive Transformers for Long-Range Sequence Modelling // https://arxiv.org/abs/1911.05507
2552
Qiu J., Ma H., Levy O., Yih S.