Читаем без скачивания Power and Progress - Daron Acemoglu;Simon Johnson;
Шрифт:
Интервал:
Закладка:
Заявления о том, что машины вскоре воспроизведут человеческий интеллект, вызвали большой ажиотаж и в 1950-х годах. Определяющим событием, первым шагом в современном подходе к ИИ и возникновением термина "искусственный интеллект" стала конференция 1956 года в Дартмутском колледже, финансируемая Фондом Рокфеллера. Летом в Дартмуте собрались блестящие молодые ученые, работающие над смежными темами. Герберт Саймон, психолог и экономист, впоследствии удостоенный Нобелевской премии, отразил оптимизм, когда написал, что "машины будут способны в течение двадцати лет выполнять любую работу, которую может делать человек".
В 1970 году Марвин Мински, соорганизатор конференции в Дартмуте, выступая перед журналом Life, все еще был уверен в себе:
Через три-восемь лет мы получим машину с общим интеллектом среднего человека. Я имею в виду машину , которая сможет читать Шекспира, смазывать автомобиль, играть в офисную политику, рассказывать анекдоты, устраивать драки. В этот момент машина начнет самообразовываться с фантастической скоростью. Через несколько месяцев она достигнет уровня гения, а еще через несколько месяцев после этого ее способности будут неисчислимы.
Эти надежды на интеллект человеческого уровня, который иногда также называют "искусственным интеллектом общего назначения" (ИИОН), вскоре были развеяны. Показательно, что на Дартмутской конференции не появилось ничего ценного. По мере того как впечатляющие обещания исследователей ИИ оставались невыполненными, финансирование этой области иссякло, и наступила так называемая первая "зима ИИ".
В начале 1980-х годов вновь возник энтузиазм, основанный на достижениях в области вычислительной техники и некоторых ограниченных успехах экспертных систем, которые обещали предоставить советы и рекомендации, подобные экспертным. Несколько успешных приложений были разработаны в контексте идентификации инфекционных заболеваний и некоторых неизвестных молекул. Вскоре снова стали раздаваться заявления о том, что искусственный интеллект достигнет уровня человеческой компетентности, и финансирование возобновилось. К концу 1980-х годов наступила вторая зима ИИ, поскольку обещания снова оказались невыполненными.
Третья волна эйфории началась в начале 2000-х годов и была сосредоточена на том, что иногда называют "узким ИИ", где целью является развитие мастерства в конкретных задачах, таких как идентификация объекта на фотографии, перевод текста с другого языка или игра в такие игры, как шахматы или Го. Достижение или превзойти человеческий паритет остается главной целью.
На этот раз вместо математических и логических подходов, направленных на воспроизведение человеческого познания, исследователи превратили различные человеческие задачи в проблемы предсказания или классификации. Например, распознавание изображения можно представить как предсказание того, к какой из длинного списка категорий относится изображение. Программы ИИ могут опираться на статистические методы, применяемые к огромным массивам данных, чтобы делать все более точные классификации. Примером такого типа данных являются сообщения в социальных сетях, которые передаются миллиардам людей.
Возьмем проблему распознавания наличия кошки на фотографии. При старом подходе машине пришлось бы моделировать весь процесс принятия решений, используемый человеком для обнаружения кошки. Современный подход обходит этап моделирования или даже понимания того, как люди принимают решения. Вместо этого он опирается на большой набор данных о людях, принимающих правильные решения о распознавании на основе изображений. Затем он подгоняет статистическую модель к большому набору данных об особенностях изображения, чтобы предсказать, когда человек скажет, что в кадре находится кошка. Впоследствии она применяет расчетную статистическую модель к новым изображениям, чтобы предсказать, есть там кошка или нет.
Прогресс стал возможен благодаря более высокой скорости компьютерных процессоров, а также новым графическим процессорам (GPU), изначально использовавшимся для создания графики высокого разрешения в видеоиграх, которые оказались мощным инструментом для обработки данных. Также были достигнуты значительные успехи в области хранения данных, что позволило снизить стоимость хранения и доступа к огромным массивам данных, и улучшилась способность выполнять большие объемы вычислений, распределенных по многим устройствам, чему способствовали быстрые достижения в области микропроцессоров и облачных вычислений.
Не менее важным был прогресс в машинном обучении, особенно в "глубоком обучении", с использованием многослойных статистических моделей, таких как нейронные сети. В традиционном статистическом анализе исследователь обычно начинает с теории, определяющей причинно-следственную связь. Гипотеза, связывающая оценку стоимости фондового рынка США с процентными ставками, является простым примером такой причинно-следственной связи, и она, естественно, поддается статистическому анализу для исследования того, соответствует ли она данным, и для прогнозирования будущих изменений. Теория возникает на основе человеческих рассуждений и знаний, часто основанных на синтезе прошлых представлений и некоторого творческого мышления, и определяет набор возможных взаимосвязей между несколькими переменными. Объединяя теорию с соответствующим набором данных, исследователи подгоняют линию или кривую к облаку точек в наборе данных и на основе этих оценок делают выводы и прогнозы. В зависимости от успеха этого первого подхода потребуется дополнительный вклад человека в виде пересмотра теории или полной смены фокуса.
В отличие от этого, в современных приложениях ИИ исследование не начинается с четких причинно-следственных гипотез. Например, исследователи не уточняют, какие характеристики цифровой версии изображения важны для его распознавания. Многослойные модели, применяемые к огромным объемам данных, пытаются компенсировать отсутствие предварительных гипотез. Каждый слой может иметь дело в первую очередь с различным уровнем абстракции; один слой может представлять края изображения и определять его широкие контуры, в то время как другой может сосредоточиться на других аспектах, например, на том, присутствует ли там глаз или лапа. Несмотря на эти сложные инструменты, без сотрудничества человека и машины трудно сделать правильные выводы из данных, и этот недостаток мотивирует потребность во все больших объемах данных и вычислительной мощности для поиска закономерностей.
Типичные алгоритмы машинного обучения начинаются с подгонки гибкой модели к выборочному набору данных, а затем делают прогнозы, которые применяются к большему набору данных. Например, в распознавании изображений алгоритм машинного обучения может быть обучен на выборке помеченных изображений, которые могут указывать на то, содержит ли изображение кошку. Этот первый шаг приводит к созданию модели, которая может делать предсказания на гораздо большем наборе данных, а эффективность этих предсказаний служит основой для следующего раунда усовершенствования алгоритмов.
Этот новый подход к ИИ уже имеет три важных последствия. Во-первых, он переплел ИИ с использованием огромного количества данных. По словам ученого в области ИИ Альберто Ромеро, который разочаровался в этой отрасли и покинул ее в 2021 году: "Если вы работаете в области ИИ, вы,