litbaza книги онлайнРазная литератураОхота на электроовец. Большая книга искусственного интеллекта - Сергей Сергеевич Марков

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 451 452 453 454 455 456 457 458 459 ... 482
Перейти на страницу:
https://yandex.ru/autopoet/onegin/2

2516

Дьюдни А. К. (1989). Компьютер пробует свои силы в прозе и поэзии / В мире науки. 8 августа.

2517

Кондратов А. М. (1987). Формулы чуда. — М.: Детская литература.// https://books.google.ru/books?id=uwsiyAEACAAJ

2518

Lloyd H. A. (2017). Kennings: I’ve Made a Little List / HuffPost, updated Dec 06, 2017 // https://www.huffpost.com/entry/kennings-ive-made-a-littl_b_9198846

2519

Sweet H. (1884) Anglo-Saxon Reader in Prose and Verse. The Clarendon Press // https://books.google.ru/books?id=Itm0AAAAIAAJ

2520

Кондратов А. М. (1987). Формулы чуда. — М.: Детская литература// https://books.google.ru/books?id=uwsiyAEACAAJ

2521

Kantrowitz A. (2016). Google Is Feeding Romance Novels To Its Artificial Intelligence Engine To Make Its Products More Conversational / BuzzFeed News, 4 May 2016 // https://www.buzzfeednews.com/article/alexkantrowitz/googles-artificial-intelligence-engine-reads-romance-novels

2522

Bowman S. R., Vilnis L., Vinyals O., Dai A. M., Jozefowicz R., Bengio S. (2016). Generating Sentences from a Continuous Space // https://arxiv.org/abs/1511.06349

2523

Kiros R., Zhu Y., Salakhutdinov R., Zemel R. S., Torralba A., Urtasun R., Fidler S. (2015). Skip-Thought Vectors // https://arxiv.org/abs/1506.06726

2524

Chen M. X., Lee B. N., Bansal G., Cao Y., Zhang S., Lu J., Tsay J., Wang Y., Dai A. M., Chen Z., Sohn T., Wu Y. (2019). Gmail Smart Compose: Real-Time Assisted Writing // https://arxiv.org/abs/1906.00080

2525

Нейронная оборона — Комиссар Михаил (2018) / https://lyrdb.ru/lyrics/neyronnaya-oborona-komissar-mihail/

2526

Голованов В. (2016). Нейронная оборона: запись альбома-посвящения Егору Летову при помощи нейросетей / Хабр, 28 июня // https://habr.com/ru/post/395503/

2527

В "Яндексе" научили нейросеть писать музыку в стиле Летова и представили слушателям первый альбом (2016) / newsru.com, 28 июня 2016 // https://www.newsru.com/cinema/28jun2016/letov.html

2528

Tikhonov A., Yamshchikov I. P. (2018). Sounds Wilde. Phonetically Extended Embeddings for Author-Stylized Poetry Generation / Proceedings of the Fifteenth Workshop on Computational Research in Phonetics, Phonology, and Morphology, October 2018, Brussels, Belgium, pp. 117–124 // https://doi.org/10.18653/v1/W18-5813

2529

Tikhonov A., Yamshchikov I. P. (2018). Guess who? Multilingual Approach For The Automated Generation Of Author-Stylized Poetry / 2018 IEEE Spoken Language Technology Workshop (SLT) // https://doi.org/10.1109/SLT.2018.8639573

2530

Yamshchikov I. P., Tikhonov A. (2019). Learning Literary Style End-to-end with Artificial Neural Networks / Advances in Science, Technology and Engineering Systems Journal, Vol. 4, No. 6, pp. 115—125 // https://doi.org/10.25046/aj040614

2531

Пекелис В. (1982). Кибернетическая смесь. — М.: Знание.

2532

Бирюков Б. В., Гутчин И. Б. (1982). Машина и творчество. — М.: Радио и связь // http://informaticslib.ru/books/item/f00/s00/z0000024/index.shtml

2533

Radford A., Wu J., Amodei D., Amodei D., Clark J., Brundage M., Sutskever I. (2019). Better Language Models and Their Implications / OpenAI blog, February 14, 2019 // https://openai.com/blog/better-language-models/

2534

Solaiman I., Clark J., Brundage M. (2019). GPT-2: 1.5B Release / OpenAI blog, November 5, 2019 // https://openai.com/blog/gpt-2-1-5b-release/

2535

Radford A., Narasimhan K., Salimans T., Sutskever I. (2018). Improving Language Understanding by Generative Pre-Training // https://paperswithcode.com/paper/improving-language-understanding-by

2536

* Поскольку благодаря появлению трансформерной архитектуры возник ряд моделей с числом параметров, превышающим 100 миллионов, для обозначения таких моделей в научной литературе стали применять специальный термин — «большие языковые модели» (Large Language Model, LLM). Конечно, само значение в 100 миллионов параметров является весьма условным (в некоторых источниках вы найдёте другие значения этой границы, например 1 млрд параметров), поэтому в отношении некоторых моделей могут возникнуть сомнения: считать их большими или нет. Но с практической точки зрения эти споры вряд ли представляют какой-либо интерес.

2537

Holtzman A., Buys J., Du L, Forbes M., Choi Y. (2020). The curious case of neural text degeneration // https://arxiv.org/abs/1904.09751

2538

Radford A., Wu J., Child R., Luan D., Amodei D., Sutskever I. (2019). Language Models are Unsupervised Multitask Learners // https://paperswithcode.com/paper/language-models-are-unsupervised-multitask

2539

Лейзаренко Д. (2019). Нейросеть «Порфирьевич» дописывает любые тексты и стихи на русском языке. Это аналог алгоритма компании Илона Маска / TJournal, 26 дек. // https://tjournal.ru/internet/132982-neyroset-porfirevich-dopisyvaet-lyubye-teksty-i-stihi-na-russkom-yazyke-eto-analog-algoritma-kompanii-ilona-maska

2540

Rajcic N., McCormack J. (2020). Mirror Ritual: An Affective Interface for Emotional Self-Reflection // https://arxiv.org/abs/2004.09685

2541

National Novel Generation Month // https://nanogenmo.github.io/

2542

Kazemi D. (2019). Even a beginner programmer can make a novel generator / Tiny Subversions, Nov 4, 2019 // https://tinysubversions.com/notes/nanogenmo-2019/

2543

Barber G. (2019). Text-Savvy AI Is Here to Write Fiction / Wired, 11.23.2019 // https://www.wired.com/story/nanogenmo-ai-novels-gpt2/

2544

Agafonova Y., Tikhonov A., Yamshchikov I. P. (2020). Paranoid Transformer: Reading Narrative of Madness as Computational Approach to Creativity // https://arxiv.org/abs/2007.06290

2545

Haridy R. (2016). 2016: The year AI got creative / New Atlas, December 12, 2016 // https://newatlas.com/ai-art-film-writing-review/46891/

2546

About CuratedAI // http://curatedai.com/about

2547

Child R., Gray S., Radford A., Sutskever I. (2019). Generating Long Sequences with Sparse Transformers // https://arxiv.org/abs/1904.10509

2548

Beltagy I., Peters M. E., Cohan A. (2020). Longformer: The Long-Document Transformer // https://arxiv.org/abs/2004.05150

2549

Kitaev N., Kaiser Ł., Levskaya A. (2020). Reformer: The Efficient Transformer // https://arxiv.org/abs/2001.04451

2550

Sukhbaatar S., Grave E., Bojanowski P., Joulin A. (2019). Adaptive Attention Span in Transformers // https://arxiv.org/abs/1905.07799

2551

Rae J. W., Potapenko A., Jayakumar S. M., Lillicrap T. P. (2019). Compressive Transformers for Long-Range Sequence Modelling // https://arxiv.org/abs/1911.05507

2552

Qiu J., Ma H., Levy O., Yih S.

1 ... 451 452 453 454 455 456 457 458 459 ... 482
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?