litbaza книги онлайнРазная литератураОхота на электроовец. Большая книга искусственного интеллекта - Сергей Сергеевич Марков

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 193 194 195 196 197 198 199 200 201 ... 482
Перейти на страницу:
против 155 327 в английской.

Первую версию датасета ImageNet представили публике в 2009 г. на очередной конференции CVPR во Флориде.

В том же 2009 году Ли Фей-Фей перебралась в Стэнфорд, и в 2010 г. на базе датасета ImageNet был проведён конкурс визуального распознавания ILSVRC-2010 (ImageNet 2010), ставший первым из конкурсов ILSVRC. В его оргкомитете было представлено три университета: Колумбийский университет в лице Алекса Берга, Принстон в лице Джии Денга и Стэнфорд в лице Фей-Фей Ли.

Справедливости ради стоит отметить, что соревнования ILSVRC не были первыми в истории публичными соревнованиями по распознаванию изображений. В 2005 г. стартовал проект PASCAL Visual Object Classes Challenge (Соревнования по классам визуальных объектов PASCAL), более известный под своим коротким названием — PASCAL VOC. Его основателем был Марк Эверингам, работавший в группе Эндрю Зиссермана в отделении инженерных наук Оксфордского университета[1835].

Слово PASCAL в названии проекта отражает тот факт, что он был создан при поддержке программы Еврокомиссии под названием PASCAL (Pattern Analysis, Statistical Modelling and Computational Learning, Анализ образов, статистическое моделирование и вычислительное обучение).

В 2005 г. датасет PASCAL VOC включал в себя 1578 изображений, содержащих 2209 аннотированных объектов, относящихся к одному из четырёх классов: велосипеды, автомобили, мотоциклы и люди. На следующий год число классов возросло до 10, а с 2007 г. — до 20. Количество размеченных изображений в PASCAL VOC постепенно росло, и в 2010 г. датасет содержал 10 103 изображения с 23 374 объектами. Для сравнения: датасет, использованный на соревнованиях ILSVRC-2010, содержал 1,4 млн картинок, причём этот набор данных был лишь небольшим подмножеством ImageNet, содержавшим на тот момент 10 млн размеченных изображений. Таким образом, ILSVRC своим появлением повысил планку сразу как минимум на два порядка.

К сожалению, 2012-й стал последним в истории PASCAL VOC из-за преждевременной смерти его основателя Марка Эверингама.

Влияние PASCAL VOC на ILSVRC трудно переоценить. В самом заголовке страницы ILSVRC-2010 можно прочесть: «Проводится как „дегустационный“ конкурс в сочетании с конкурсом PASCAL Visual Object Classes Challenge 2010 (VOC2010)» [Held as a “taster competition“ in conjunction with PASCAL Visual Object Classes Challenge 2010 (VOC2010)].

Условия ILSVRC в разные годы подразумевали соревнования в решении немного различающихся наборов задач: классификация изображений [classification], классификация изображений с локализацией объектов [classification with localization] (с 2011 г.), утончённая классификация [fine-grained classification] (2012 г.), а также обнаружение объектов [detection] (с 2013 г.). В то же время во все годы проводились соревнования по классификации, что позволяет нам отслеживать последовательный прогресс в решении этой задачи.

Основной метрикой, используемой в рамках ILSVRC для оценки точности классификации, стала «ошибка топ-5» [top-5 error]. Принцип её расчёта довольно прост. В датасете ILSVRC, используемом для соревнований по классификации, каждому изображению сопоставлена единственная «истинная» метка класса, при этом число классов сокращено до 1000. Модель, «взглянув» на изображение, должна предоставить пять наиболее вероятных гипотез по поводу «истинной» метки класса. Если среди этих гипотез присутствует «истинная» метка, то ответ модели считается правильным. Величина ошибки равна доле неправильных ответов модели на тестовой выборке. Организаторы ILSVRC использовали такую метрику для того, чтобы не штрафовать модель за нахождение на изображении каких-либо второстепенных объектов. Если вместо пяти гипотез использовать десять, то такая метрика будет называться «ошибка топ-10» [top-10 error], если одну — то «ошибка топ-1» [top-1 error] и так далее.

6.2.1.2 SuperVision и её особенности

Результат лучших моделей распознавания изображений на соревнованиях ILSVRC в 2010 г. составлял 28,19% ошибок, в 2011 г. — 25,77% ошибок.

А в 2012 г. результат команды SuperVision Университета Торонто составил уже лишь 16,42% ошибок, с отрывом почти в десять процентных пунктов от второго места — команды ISI с результатом 26,17% ошибок[1836], [1837], [1838].

Команда SuperVision (в названии игра слов: super vision — суперзрение, supervision — надзор; supervised learning — обучение с учителем) состояла из трёх человек. Первый из них — Алекс Крижевский, именно в его честь архитектура сети, использованная командой SuperVision, получила название AlexNet.

После победы SuperVision на ILSVRC-2012 корпорация Google поручила своему стажёру Войцеху Зарембе воссоздать сеть на основе публикации с описанием модели. Поскольку в Google существует традиция называть нейронные сети именами их создателей, реплика нейронной сети SuperVision изначально называлась WojNet. Позже Google удалось убедить Крижевского стать её сотрудником, после чего имя сети было изменено на AlexNet.

Хотя события, спровоцировавшие медийный бум в отношении глубокого обучения, и были непосредственно связаны с именем Крижевского, биографические сведения о нём весьма скудны. Известно, что родился он в/на Украине, а вырос в Канаде[1839]. Я не могу даже поручиться, что его фамилия по-русски должна быть записана как «Крижевский», а не как «Крыжевский».

Вторым участником команды был Илья Суцкевер. Сегодня он известен как руководитель исследовательского отдела OpenAI, однако в 2012 г. это имя вряд ли что-то сказало бы неспециалистам.

И наконец, третьим участником команды был научный руководитель Суцкевера и Крижевского — Джеффри Хинтон собственной персоной.

Кстати говоря, команда Хинтона причастна и к созданию популярных и в наши дни баз данных изображений CIFAR-10 и CIFAR-100, созданных за счёт средств Канадского института передовых исследований (Canadian Institute for Advanced Research, CIFAR). Оба датасета, созданные Алексом Крижевским, Винодом Наиром и Джеффри Хинтоном, были опубликованы в 2009 г. и с тех пор пользуются большой популярностью в качестве стандартного набора изображений в задачах распознавания образов.

CIFAR-10 содержит 60 000 изображений, относящихся к 10 непересекающимся классам (6000 изображений на класс). В CIFAR-100 тоже 60 000 изображений, но уже 100 классов (по 600 изображений на класс). Оба датасета являются размеченными подмножествами набора данных Visual Dictionary, содержащего 80 млн крошечных (вписывающихся в рамку 32 × 32 пикселя) изображений[1840].

Основой для создания датасетов CIFAR стал датасет «80 Million Tiny Images» [80 млн крошечных изображений], или просто Tiny Images, — набор данных, который содержит почти 80 млн цветных изображений размером 32 × 32 пикселя. Для его создания исследователи из MIT подготовили набор из 75 062 конкретных (не абстрактных) имён существительных, входящих в состав лексической базы WordNet, затем использовали каждое из этих существительных в качестве текста запроса по поиску изображений к семи различным системам — Altavista, Ask.com, Flickr, Cydral, Google, Picsearch и Webshots, после чего произвели уменьшение размеров полученных картинок[1841].

В 2020 г. датасет Tiny Images был изъят его создателями из обращения после сообщений, что обученные на этом датасете модели демонстрировали проявления предвзятости в отношении расы и пола. Например, авторы статьи «Огромные датасеты: пиррова победа для компьютерного зрения?» (Large datasets: a pyrrhic win

1 ... 193 194 195 196 197 198 199 200 201 ... 482
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?