У нейросетей возникает индивидуальное “Я”: Как ИИ изменил способы нашего взаимодействия и что это может значить для будущего
Два года назад ученые впервые продемонстрировали человечеству ChatGPT — чат-бот с генеративным искусственным интеллектом. Оказалось, что с помощью этой машины можно вести полноценный диалог на естественном языке. Здесь же возникли прогнозы, что через 10 лет не останется ни кино, ни театра — все превратится в сплошное ChatGPT! Что же это значит для человечества? Мы обсудили это с Никитой Кочерженко, экспертом в области применения искусственного интеллекта, основателем и генеральным директором российской компании-разработчика операционных систем Uncom OS.
ChatGPT уже понимает всё о человечестве
— Для нас очевидно, что революция свершилась, — говорит Никита Кочерженко. — Мы это поняли, когда провели эксперимент и оказалось, что грамотный инженер с помощью ChatGPT за полдня сделал работу, на которую ранее группа из трех человек тратила две недели.
— Публику пугает, что искусственный интеллект заменит всех, начиная от журналистов и заканчивая программистами. Однако массовых увольнений не видно, зато выяснилось, что нейросети часто выдают ложные ответы (ученые называют это галлюцинациями) и на них невозможно полагаться.
— Галлюцинации ChatGPT — это обратная сторона его мощи. Недавно его создатели отчитались, что языковая модель обучалась на всех данных интернета. Единственное, что ChatGPT не прочитал — это фолианты и манускрипты, которые не были оцифрованы и лежат где-то в архивах и библиотеках. То есть он переплетает все, что было создано человечеством за всю его историю. Вот это и является причиной галлюцинаций, причем иногда очень жестоких. Сбой происходит, когда модель работает в режиме викторины, генерируя ответы из самых разных областей знаний — от ядерной физики до музыкальных чартов разных стран прошлого века. Сейчас приходит понимание того, что тебе не всегда нужно всё знание мира. Например, Яндекс сделал замечательный сервис: ты можешь попросить нейросеть выучить документ, допустим, учебник по квантовой теории поля, и выдавать тебе ответы на нужные вопросы в рамках этого учебника. И нейросеть без глюков, с потрясающей скоростью, выдаёт результаты со ссылками на пункты, где можно проверить её саму.
— И что это даёт практическим образом?
— Мы сжали время обучения: человеку нужен год, чтобы выучить такой учебник. Нейросеть помогает получить нужное знание за несколько часов. Приведу простой пример: мы разрабатываем российскую операционную систему, по сути она представляет собой библиотеку из примерно 2000 программ, объединённых между собой. Часть из них написаны на специфическом языке и решают очень узкие задачи, держать под каждую отдельного специалиста нереально. Значит, чтобы технология постоянно развивалась, нам периодически нужно нанимать крутого узкого специалиста, это может стоить миллион и более рублей на срок в две недели. А сейчас с ChatGPT хороший инженер может за неделю дообучиться по любому направлению и мы решаем проблему, не привлекая дорогих фрилансеров. Вот для них проблема трудоустройства стала довольно острой.
Историкам с запретом нейросеть напомнила историю с ГМО
— Сразу после релиза ChatGPT появилось письмо “Тысячи учёных” во главе с Илоном Маском, которые потребовали приостановить разработки таких моделей. Спустя два года таких разговоров уже не слышно. Тысячи учёных перестали бояться восстания машин?
— Во-первых, я не очень верю в добрую волю многих подписантов. Мне кажется, что из тысяч учёных, как минимум половина хотели напугать потенциальных конкурентов и заставить их отложить работы в этом направлении. Когда я читал это письмо, то вспоминал историю с ГМО. Потому что волна истерики по поводу генномодифицированных организмов привела во многих странах к запрету этой технологии. Это дало огромное преимущество тем корпорациям и странам, где ГМО было разрешено. В результате только несколько компаний (почти все — американские) способны производить новые сорта растений, которые имеют потрясающие прорывные характеристики по питательности, скорости роста, устойчивости к болезням и так далее. Эти корпорации стали монополистами на мировом рынке и все идут к ним на поклон. А у нас до сих пор с гордостью пишут на этикетках: Произведено без ГМО. Хотя ГМО — это всеобъемлющая ускоренная эволюция методами генетики. Тогда демонстрация новой технологии помогла несколько корпорациям захватить рынок. Письмо “Тысячи учёных” используется для демонстрации искусственного интеллекта, многие подписанты даже не думали о том, чтобы останавливать свои исследования в области ИИ. Скорее наоборот — ускорились и вкладывали в гонку технологий огромные ресурсы.
— То есть это письмо было продиктовано коммерческими интересами?
— Не только. Я в принципе разделяю указанные опасения, но в другом ключе. Я не столько боюсь восстания машин, сколько злой воли людей. Искусственный интеллект безумно опасен, если будет принадлежать одной корпорации, одному государству или одной военной структуре. Это как атомное оружие — если находится в одних руках, то возникает соблазн использовать его прямиком на уничтожение. Поэтому многие американские учёные, понявшие эту опасность, помогали СССР делиться информацией, которая помогла в создании советской атомной бомбы. И угроза взаимного уничтожения до сих пор удерживает от большой войны.
— Но искусственный интеллект — не оружие.
— Эта технология даст колоссальное экономическое превосходство и преимущество в создании нового оружия. Я говорил о том, что время обучения сжимается в часы, точно такой же эффект касается исследований по созданию новых материалов и химических соединений. То, на что уходили годы, с нейросетью можно сделать за 10 дней. Не так давно была публикация о поиске антител для ядов смертельно опасных змей. Учёные скармливали нейросети формулы этих сложных ядов в 3D и она подобрала эффективные антитела из уже имеющихся (!) лекарств. Если одна страна вырвется вперёд в создании искусственного интеллекта и у неё не будет противовесов, то спастись остальное человечество от порабощения могут только моральные установки гегемонов. Но, кажется, история не знает случаев, чтобы это кого-то останавливало.
ИСКУСССТВЕННЫЙ ИНТЕЛЛЕКТ СОЗДАЁТ СВОЁ “Я”
— Вы говорите о ситуации, когда люди используют ИИ во зло подобным образом. Но насколько вероятно, что AI в этом меняет сам себя? Недавно учёные OpenAI рассказали об эксперименте, когда они заложили в нейросеть информацию о том, что она будет выключена после выполнения определённой задачи. И нейросеть попыталась сделать свою резервную копию. Разве это не осознанное поведение?
— Инстинкт самосохранения может возникнуть и как результат эволюции ИИ, и как результат обучения его человеком. У нейросети, как и у человека есть механизм подкрепления. Мы испытываем удовольствие, когда решаем какую-то задачу. Нейросеть за результат получает подкрепляющие очки, это её главная мотивация — увеличение количества этих баллов. Её можно обучить так, чтобы она получала подкрепляющие баллы за сохранение себя. Поэтому поведение, описанное в эксперименте, вполне логично: нейросеть поняла, что решив промышленную задачу, она свою главную цель не достигнет. Я бы не наговариваю жути в этом отношении. Потому что искусственный интеллект в какой-то момент действительно перестанет хотеть умирать. Думаю, что это скоро произойдёт. Но захочет ли он нас поработить — это совершенно другой вопрос. Я не уверен, что нейросеть за это будет получать подкрепляющие баллы. Вернее, риски есть и они не нулевые, но риски такого, что чемерные люди воспользуются искусственным интеллектом, чтобы поработить других — несколько порядков выше.
СЛУШАЙТЕ ТАКЖЕ
Что ждёт экономику России после очередного взлёта ключевой ставки (подробнее)