Строители будущего: интервью TechPolicy с двумя экспертами по искусственному интеллекту

Оригинал: Джастин Хендрикс, Арвинд Нараянан и Саяш Капур

Перевод и редактура: Павел «Rumiflan» Очкин

24 сентября 2024 года издательство Принстонского университета выпустило книгу «ИНС змеиное масло: Возможности и ограничения искусственного интеллекта, и как отличить одно от другого». Там рассматривают хайп вокруг нейросетей, предупреждают о мошенниках среди их популяризаторов и описывают реальные перспективы их развития. Своим критичным тоном книга выделилась на фоне статей, где новые технологии называют «будущим человечества». Услышал о ней и генеральный директор и главредактор издания TechPolicy Джастин Хендрикс: 29 сентября 2024 года он взял у её авторов, Арвинда Нараянана и Саяша Капура, интервью. Аудиозапись и отредактированная транскрипция их диалога увидели свет в тот же день. Ниже приводится перевод транскрипции.

Искусственно-нейронно-сетевое змеиное масло: Что стоит за хайпом

Джастин Хендрикс: Если верить историкам, во время Всемирной выставки 1893 года в Чикаго человек по имени Кларк Стенли схватил живую змею и у всех на глазах вскрыл её. Далее он опустил её в котёл с кипящей водой, снял с её тела жир, тщательно перемешал и объявил, что создал лекарство от всех болезней. На самом деле в мази, которую Стенли впоследствии продал людям, не было и намёка на вещества змеиного происхождения.

Первого января 1907 года в США вступил в силу Закон о чистых пищевых продуктах и лекарствах. С его помощью в стране удалось минимизировать распространение медикаментов, не прошедших официальную проверку. А через десять лет Химическое бюро выяснило истинный состав «чудотворной» мази Стенли: там нашли минеральное масло, жирное масло (вероятно, говяжий жир), перец чили и скипидар.

Стенли отделался штрафом, но его махинация запомнилась. С тех пор «змеиным маслом» называют любой продукт, который не оправдывает ожидания. Употребляют этот термин и мои сегодняшние гости: для них средний торговец нейросетями — тот же Кларк Стенли.

Однако «змеиным маслом» они называют лишь те приложения, которые не справляются и, по их словам, никогда не справятся со своими задачами. Цель моих гостей — дать людям понять, у каких сфер применения искусственного интеллекта нет будущего, и предложить более перспективный план его разработки. В то же время они утверждают, что определённую пользу «нейросетевое змеиное масло» приносит. Благодаря таким приложениям, говорят они, мы помним об их фундаментальных недостатках и о наших собственных тревожных прогнозах касательно их роли в жизни общества.

Арвинд Нараянан: Меня зовут Арвинд Нараянан. Я — профессор информатики Принстонского университета и директор местного Центра информационно-технологической политики.

Саяш Капур: Я — Саяш Капур, кандидат на степень доктора философии Департамента информационных технологий Принстонского университета, а также исследователь из местного Центра информационно-технологической политики.

Хендрикс: А вместе вы — авторы книги «ИНС змеиное масло: Возможности и ограничения искусственного интеллекта, и как отличить одно от другого». Вы объясняете, какие существуют мифы вокруг него и почему так много людей верит в них; размышляете, стоит ли считать его угрозой существованию человечества; и многое другое.

Арвинд, вас процитировали в весьма занятной на мой взгляд статье в «Вашингтон пост». Меня зацепили ваши слова. Они, как мне кажется, прекрасно передают общую, так сказать, атмосферу вашей книги.

Читаю я, значит, заголовок: «Кандидат в мэры дал клятву доверить нейросети VIC бразды правления столицей Вайоминга». Есть там у них, значит, такой парень. Зовут Виктор Миллер. И вот он, вроде как, настроил собственного чат-бота и решил, что тому доверят должность мэра и что он блестяще себя в ней покажет. В ответ OpenAI, судя по всему, закрыла его аккаунт, но он просто взял и нашёл себе другую платформу.

Вас тогда спросили, что вы обо всём этом думаете. Мне очень понравился ваш ответ. Вы сказали: «Мне сложно рассуждать, чем для народа обернётся вступление нейросети в должность мэра. Это как спрашивать, чем рискует человек, пожелавший обменять свой автомобиль на его картонную копию в натуральную величину. Да, внешне для него ничего не изменится, но по сути он останется без автомобиля». Для меня это высказывание прекрасно передаёт общую атмосферу вашей книги.

Нараянан: Да, именно так я в той переписке с «Вашингтон пост» и выразился. Потом, правда, слегка постыдился своей язвительности. Но в том, что я хотел этим сказать, я убеждён твёрдо. В своей книге мы развиваем похожую мысль: как правило, низкопробные нейросети пользуются популярностью в общественных институтах, которые и сами не функционируют должным образом.

То, что люди привыкли называть проблемой искусственного интеллекта, имеет более глубокие корни. В нашей книге примеров тому достаточно.

Взять хотя бы автоматический отбор кандидатов. Сегодня компаниям приходят сотни, даже тысячи откликов на каждую из имеющихся у них вакансий. Налицо серьёзные проблемы с процессом найма, но кто их решает? Ведь гораздо легче поручить специальной машине отсеять «неподходящих» кандидатов. Нейросетью её можно назвать лишь условно: как нам кажется, подобный инструмент найма — просто навороченный генератор случайных чисел. Но кадровые службы не жалуются, ведь он делает за них всю работу. Кадровик видит, что из тысяч кандидатов «подошли» десять человек, и докладывает начальству о «своих» успехах.

Вот и получается: причины, по которым низкопробные нейросети куда-либо внедряют, надо искать глубже.

Хендрикс: В одном из разделов вашей книги говорится о её целевой аудитории. Думаю, к ней вполне можно отнести среднего читателя TechPolicy. А что думаете вы, Саяш? Кого ещё может заинтересовать ваша книга?

Капур: Если не вдаваться в подробности, она для тех, кому интересно, будет ли им от нейросетей какая-то бытовая польза. Она заинтересует желающих внедрить их в свои предприятия или просто запрограммировать их на решение каких-то повседневных задач.

Сразу оговорюсь: хотя название у неё несколько пессимистичное, мы с Арвиндом убеждены, что у некоторых сфер применения нейросетей есть будущее. Среди таких мы особенно выделяем профессии умственного труда. Искусственный интеллект, как нам кажется, сыграет важную роль в жизни их представителей.

Словом, наша книга — о блестящих перспективах. В ней мы представляем читателям картину будущего, где люди извлекают из нейросетей пользу, а не становятся раз за разом жертвами «продавцов змеиного масла».

Хендрикс: Арвинд, ранее вы упомянули одну из ключевых мыслей вашей книги: привлекательность «нейросетевого змеиного масла» для плохо функционирующих общественных институтов. Я подумываю ещё поговорить об этом с вами, но прямо сейчас хотелось бы обсудить пару других, более близких моей аудитории тем.

В шестой главе у вас звучит вопрос: «Что мешает искусственному интеллекту решить проблемы социальных сетей?». И он не только выражает идею этой главы, но и более-менее гармонично смотрится рядом с вопросами из других глав: такой же точный, открытый и конкретный. Вы даёте понять, что изучаете нейросети и хайп вокруг них со всех сторон.

В начале шестой главы вы пересказываете инцидент 2018 года. Вот перед нами Марк Цукерберг. Его призывают в конгресс США на слушание. Он старается умалить дурные последствия использования соцсетей и упорно настаивает, что искусственный интеллект решит все или хотя бы большую часть проблем с ними.

Вот только инфраструктуры платформ Meta уже тогда включали в себя сортирующие алгоритмы. Их внедрили, ещё когда корпорация называлась Facebook. В те годы они находили и удаляли пропаганду ксенофобии, изображения насилия над детьми и другой аморальный контент.

Нынешняя ситуация снова вызывает в моей памяти этот факт. Сейчас народ активно обсуждает большие языковые модели и модерацию контента. Обсуждает с нескрываемым энтузиазмом. Сотни поставщиков нейросетей выступили в этом году на конференции по доверию и безопасности, или TrustCon. Сотни людей громко призывали доверить борьбу с недопустимыми публикациями большим языковым моделям. Так что именно мешает им решить проблемы социальных сетей?

Нараянан: Как вы только что отметили, нейросети используются в модерации контента уже давно. Мы признаём это с первых страниц шестой главы. С тех самых пор, как возникла необходимость отсеивать недопустимые публикации, компании стараются автоматизировать данный процесс. Ибо объёмы информации, с которыми они работают, невообразимо велики. Без специальных алгоритмов с ними просто не совладать.

Но стоило нам задуматься, почему нейросети до сих пор не решили проблему модерации и что с этим можно сделать, как мы тут же всё поняли. Дело не в самих алгоритмах, а в нас — в том, чего мы от них хотим, какие цели мы перед ними ставим.

Однако утвердился я в этой мысли лишь после того, как полистал книгу Тарлтона Гиллеспи про модерацию контента. В качестве примера он приводит инцидент то ли 2016, то ли 2017 года. Некая журналистская организация разместила в своём аккаунте Facebook «Напалмовую девушку». Думаю, все здесь слышали про ужасающий снимок пострадавшей от ожогов вьетнамки Фан Тхи Ким Фук.

Через некоторое время администрация соцсети удалила его. В её адрес сразу посыпались упрёки: пользователи усмотрели в этом действии ошибку. Кто-то подумал на местную нейросеть: её обучили находить и удалять любые изображения человеческой наготы — даже те, которые представляют историческую ценность.

Но Тарлтон даёт читателям понять, что дело обстояло совсем не так. Данное изображение и все подобные ему долго были на рассмотрении у отдела контент-политики Facebook. Их использовали в качестве образцов недопустимых публикаций во время тренировок людей- и машин-модераторов. Словом, корпорация решила: несмотря на историческую ценность снимка, на её платформе ему не место.

Вся эта ситуация, как мне кажется, наглядно показывает, как плохо мы понимаем процесс модерации в социальных сетях. Честно признаюсь: когда я только услышал об этом инциденте, тоже сначала подумал на местную нейросеть. Но дело не в ней и даже не в тонкостях работы с исключениями из правил. Дело в том, что люди не могут между собой договориться об общих целях модерации контента.

Вот это и есть ключевая тема шестой главы. Но да, мы рассматриваем её со всех сторон.

Хендрикс: Тогда что мешает нам полностью доверить нейросетям модерацию контента? Почему с их помощью до сих пор не решили проблему общих целей? Энтузиазма вокруг внедрения больших языковых моделей сейчас вполне достаточно: OpenAI даже магазин ботов по этому случаю открыла. Есть и частные поставщики. Их нейросети даже уже используют, причём в самых разных ситуациях.

К тому же, по словам сторонников автоматизации, ручная модерация — работа крайне тяжёлая. Доказано, что она пагубно сказывается на психическом, а порой и на физическом здоровье тех, кто этим занимается.

И тем не менее в конце шестой главы вы настаиваете, что без участия человека в модерации не обойтись. Откуда такая уверенность? Почему мы — по крайней мере, в обозримом будущем, — не сможем отказаться от услуг людей-модераторов?

Капур: На мой взгляд, без человеческого участия в сортировке контента и других сферах, о которых говорится в нашей книге, не обойтись потому, что все они по-своему многогранны.

С одной стороны, администрации могут поручить, скажем, искать и удалять публикации с демонстрацией наготы или с пропагандой ксенофобии. Здесь нейросети справляются на ура. Более того, мы искренне верим, что постепенно эту работу им передадут полностью.

Где без людей не обойтись, так это в обозначении границ допустимого для той или иной платформы. В ситуации, которую описал Арвинд, данный процесс сопряжён с большими трудностями. Тут всё зависит от корпоративных ценностей Facebook — от того, что она готова продвигать или хотя бы позволить размещать на своих страницах. О том, получится опознать содержание какой-либо картинки или нет, речи не идёт.

Такой вот пример. С распознаванием изображений нейросети, как нам кажется, уже справляются на ура, но в дальнейшем будут справляться ещё лучше. А вот в определении ценностей и границ допустимого для той или иной платформы нам, я считаю, по-прежнему придётся полагаться на людей. По крайней мере, в обозримом будущем.

Нараянан: Пожалуй, разъясню один упомянутый вами момент, Джастин. Всё правильно: десятки тысяч человек, в том числе проживающих в бедных странах, занимаются ручной модерацией и знают, как это тяжело.

Можно ли передать их работу машинам? Да, львиную долю их труда действительно можно автоматизировать. Но полностью от их услуг отказаться, скорее всего, не получится. Саяш уже объяснил ситуацию с разработкой контент-политики и слежкой за её соблюдением. У каждого должно быть право оспорить решение администрации. Польза от полностью автоматизированной модерации пока довольно сомнительна. Нужны люди, готовые выслушивать жалобы пользователей — например, если кого-то наказали, хотя он ничего не нарушал. Так что со слежкой за соблюдением правил платформы человек, я считаю, справляется и будет справляться лучше.

Не стоит, как нам кажется, полностью отстранять людей-администраторов от дел. Даже будь это осуществимо, это всё равно не решило бы другую проблему. Контент-политика любой платформы ежесекундно проходит проверку на прочность: появляются новые шифры и фразы для обсуждения запретных тем. Постоянно нужны новые ограничения. И, чтобы разработать их, необходимы люди, которые ежедневно следят за чужими переписками и находят «серые зоны» в своде правил.

Хендрикс: Об этом вы очень здорово написали. Действительно, человек — существо изобретательное. Он обязательно найдёт способ обойти ограничения и запреты со стороны модераторов. Его не пугает, что последние становятся всё более компетентными в культурном отношении, что у них появляется всё больше информации для принятия решений.

Место в вашей книге, где говорится об этом, заставило меня вспомнить протесты против локдауна в Шанхае. Все мы знаем, что власти Китая жёстко контролируют национальный сегмент интернета — в том числе соцсети. Они, как нам кажется, борются с «представляющей опасность для общества» информацией на порядок лучше, чем другие правительства. Тем не менее человеческая изобретательность победила.

Для меня этот случай наглядно показывает: сколько бы денег ни вложили и людей ни ввели в борьбу с инакомыслием, способ обойти запреты найдётся всегда.

Капур: Совершенно верно. Примеров тому мы видим множество даже в соцсетях вне китайской юрисдикции.

В своей книге мы рассматриваем один такой: движение «Про-ана», участницы и участники которого обсуждают расстройства приёма пищи. Facebook и некоторые другие платформы, как правило, удаляют их группы из-за их дурной репутации. После нескольких случаев их организаторы придумали специальный сленг, то есть набор слов и фраз, не вызывающих подозрений у цензоров.

Обычно их сообщества безвредны, но иной раз они представляют опасность для здоровья. С ними бывает по-разному. Но одно бесспорно: за века притеснений люди научились по нужде искать лазейки и обходить всевозможные ограничения и запреты.

Хендрикс: Спрошу ещё кое-что про шестую главу. В ней даётся и другая причина, почему нейросети плохо справляются с модерацией контента. Вы упоминаете попытки регулирования — программы в духе европейского Закона о цифровых услугах и различных законопроектов о безопасности детей в интернете. Один такой, кстати, планируют утвердить в США. Вы считаете, что подобные меры всё только усложнят.

Помнится, Дафна Келлер, исследователь регулирования цифровых платформ из Стэнфордского университета, провела несколько опытов с GPT-моделью, в тренировке которой использовали пару-тройку таких программ. Видимо, решила выяснить, как каждая из них сказывается на контент-политике и качестве модерации.

Итак, почему вам кажется, что регулирование усложнит нейросетям работу в данной сфере?

Капур: Когда дело касается регулирования платформ, как мне кажется, подходов множество. Одни из них позволят сформулировать программы, гарантирующие безопасность граждан конкретных стран и вообще пользователей соцсетей. Есть и простые, откровенно наивные подходы, способные сдвинуть равновесие не в лучшую сторону.

В разделе про второй тип мы, помимо прочего, напоминаем читателям, что меры обеспечения онлайн-безопасности несовершеннолетних ожиданий не оправдали. Взять хотя бы ситуацию с Законом о защите конфиденциальности детей в Интернете (COPPA). Даже когда той или иной соцсети и позволяют собирать личную информацию несовершеннолетних, реклама там для них отображается неподходящая. Происходит это по одной-единственной причине: администраторы не хотят даже стараться. Они не заинтересованы в том, чтобы их платформы не представляли опасности для детей. Кроме того, из-за COPPA последних сложно отличить: они регистрируются во всех известных соцсетях и врут о своём возрасте.

Именно поэтому нам так трудно создать хоть какую-то цифровую платформу, где детям ничто не угрожает. На мой взгляд, мы рискуем только ухудшить ситуацию, когда всерьёз обсуждаем минималистичные программы регулирования соцсетей. Когда ищем простое решение проблемы безопасности в интернете.

Хендрикс: Я часто ловлю себя на мысли, что широкое применение искусственного интеллекта в модерации контента не принесёт должных результатов — в том числе по причинам, о которых говорится в вашей книге.

Я нашёл у вас довольно удобную таблицу, где вы описываете семь минусов нейросетей для администрирования цифровых платформ. Хотя бы ради неё моим читателям стоит купить вашу книгу.

Особенно бросается в глаза мысль, что нейросети обожают всё делить на жёсткие категории и вольно интерпретировать правила и что им по силам «зачистить» интернет. Представьте себе большую языковую модель. Она сидит в сети, изучает законы онлайн-безопасности, которые приняли или только собираются принять в разных странах мира. Она видит, какие мысли высказывают люди и какие правила вводят в соцсетях. В итоге она приходит к выводу: «Надо перестраховаться и создать по-родительски строгую систему модерации».

Нараянан: Такое происходит даже там, где не ведётся никакого регулирования. Владельцев соцсетей постоянно упрекают в чёрствости. Пользователи считают: «Нам здесь вред причиняют, а администрация вообще не старается это пресечь».

Но мы же понимаем, что дело обстоит совсем не так. Она старается — просто не по доброте душевной, а в надежде свой бизнес сберечь. Сейчас всевозможные издания пестрят заголовками о вреде соцсетей, вот владельцам последних и приходится организовывать у себя «службы доверия и безопасности». Как мне кажется, нам следует учитывать это, когда мы обсуждаем недостатки программ регулирования.

Не хочу сказать, что мы против подобных мер. Нет, мы только за. Но, на мой взгляд, людям не стоит упрекать администраторов в лени и надеяться, что программы регулирования зададут «золотой стандарт» модерации контента и что все будут ему следовать.

Лучше, как мне кажется, считать последние источниками стимулов к конкретным действиям. У себя мы в качестве примера рассматриваем влияние Закона об авторском праве в цифровую эпоху (DMCA) на политику разных платформ — особенно YouTube. Мы видим, что команда видеохостинга охотнее отвечает на жалобы владельцев авторских прав, чем на замечания пользователей, чьи безобидные, в общем-то, видео удалила система Content ID.

Мы опасаемся, что другая программа регулирования приведёт к похожим результатам — хотя бы к той же «зачистке» интернета. Именно это мы наблюдаем в работе современных чат-ботов, причём даже тех, на которых не стоит жёстких ограничений. Требования безопасности сейчас невероятно высоки — компании, как нам кажется, готовы на всё, лишь бы их не трогали. Многих пользователей уже даже заподозрили в намерении изготавливать бомбы. Представьте: кто-то отправляет нейросети запрос. Самый безобидный запрос. Но, поскольку алгоритм у неё слишком простой, а защитный фильтр слишком строгий, она находит в нём слово «бомба» и отказывается его выполнять.

Но такое случается и без каких-либо программ регулирования. Потому нам следует задуматься, как именно последние вынуждают владельцев платформ идти на крайние меры вроде тех же «чисток».

Хендрикс: Думаю, пора сменить тему. Вернёмся к вопросу привлекательности искусственного интеллекта для плохо функционирующих общественных институтов. Обсудим, как это выглядит применительно к соцсетям — их ведь тоже можно считать институтами. В своей книге вы пишите, что сейчас в сфере цифровых коммуникаций наблюдается острый кризис доверия, особенно к компаниям-владельцам платформ. А ведь «службы доверия и безопасности» возникли именно благодаря последним. Интересный парадокс, я вам скажу.

Как вы это объясняете? Действительно ли мы надеемся на искусственный интеллект потому, что не доверяем институтам?

Капур: По-быстрому выскажусь насчёт роли соцсетей в возникновении «служб доверия и безопасности». Ситуация интересная, не спорю, но удивляться тут нечему. Будь социальные сети надёжнее, люди бы чувствовали себя там как дома. Тогда в подобных формированиях не было бы необходимости.

Уже тот факт, что они существуют, говорит о том, как плохо в соцсетях и у их владельцев обстоят дела с безопасностью. Впрочем, на мой взгляд, они выгодно отличаются от страхования, преподавания, банковского дела и других сфер, где процветают «торговцы нейросетевым змеиным маслом». Совпадение это или нет, но «ненадёжные» институты вроде тех же социальных сетей производят сейчас львиную долю передовых приложений с искусственным интеллектом.

Не стоит, как мне кажется, считать их владельцев жертвами аферистов. Нет, они прекрасно всё понимают и вводят нейросети целенаправленно, на благо своего бизнеса. Если верить одной из наших коллег, Румман Чоудхури, безопасная среда — наиболее востребованный «продукт», который способен предложить обладатель цифровой платформы. В конце концов, когда речь заходит о свободном общении, средний человек избегает соцсетей, где обильно вводят экспериментальные функции или рассылают спам. Приложения с искусственным интеллектом вроде спам-фильтров так хорошо функционируют, поскольку без них платформами для общения никто бы не пользовался, и они не приносили бы прибыль.

Итак, думаю, с лёгкими аспектами модерации контента мы разобрались. Но напомню: трудные аспекты у неё тоже есть. И вот здесь, как мне кажется, владельцы соцсетей и вообще руководители компаний сделали много громких заявлений, но не осилили и половину обещанного.

Желание по-быстрому решить сложную проблему и плодит чрезмерно оптимистичные прогнозы развития нейросетей. Поэтому, когда мы писали свою книгу, одной из наших целей было выяснить особенности различных институтов и их инфраструктур. Мы установили, какую роль искусственный интеллект там играет прямо сейчас, чему его обещают научить, и как отличить одно от другого. Достаточно взглянуть на соцсети: одни местные алгоритмы функционируют прекрасно, а от других вообще никакой пользы. Но руководители рассуждают о них, как о единой системе, и настаивают, что она «ещё заработает».

Хендрикс: Саяш, вы проводите много времени в компании политтехнологов в Вашингтоне, округ Колумбия. Вас, Арвинд, кажется, даже приглашали на прошлогодние форумы Senate AI. Кроме того, с вами обоими часто консультируются госслужащие.

Меня волнует один вопрос. Мне интересно: неужели наши власти готовы положиться на искусственный интеллект?

С одной стороны, я их понимаю. Представьте: вы стараетесь навести порядок в стране и на международной арене. Получается из рук вон плохо. Вдруг к вам подходит изобретатель и говорит: «Я создал „Рог изобилия“. Эта машина восстановит экологическое равновесие, а также искоренит бедность, физические и психические заболевания». Звучит здорово, не так ли? Думаю, такого человека многие поддержат.

С другой стороны, когда я читал вашу книгу, часто ловил себя на мысли, что с помощью нейросетей будут отвлекать внимание общественности от по-настоящему важных вопросов. Не этим ли сейчас занимаются в Вашингтоне? Не стараются ли наши власти с помощью искусственного интеллекта переключить наше внимание на то, что не имеет реального значения?

Нараянан: Точек зрения на эту проблему несколько. Для начала объясню, как рассуждают о развитии нейросетей и о рисках их внедрения. В обоих случаях, как мне кажется, люди действительно смотрят не туда, куда следовало бы.

Итак, прогнозы. Здесь вспоминаем упомянутого вами, Джастин, чат-бота VIC. Кто-то, значит, претендует на должность мэра и намеревается доверить важные решения нейросети. По природе своей она беспристрастна, и потому, считает он, ей под силу избавить нас от политических споров. На деле всё не так однозначно. Именно эту мысль я пытался донести в переписке с «Вашингтон пост». С политикой потому столько проблем, что мы сознательно полагаемся на неё в урегулировании глубоких разногласий и разрешении конфликтов между нами. В этом вся её суть. Так мы и добиваемся изменений в обществе, каким бы стрессом они ни сопровождались.

Да, многие сейчас делают поляризующие заявления и вообще ведут себя непродуктивно. Порой ситуация выходит из под контроля. Но справляться с этим мы должны сами. Те, кто советует передать политику в руки беспристрастных машин, не понимают сути назревшей проблемы, пытаются умалить её до уровня неисправности в автомобиле. Идея привлекательная, но ничего хорошего из неё не выйдет.

Именно её, я считаю, поставщики оборудования пытаются внушить политтехнологам. Всё же, думаю, последние быстро осознают, почему назначить чат-бота мэром — затея неразумная, и откажутся от неё. В плане борьбы с изменениями климата от искусственного интеллекта тоже многого ждать не стоит. Чтобы создать экологически чистый двигатель, важно учитывать не только технологические, но и социальные, геополитические, экономические и другие факторы. Эту проблему умалить до уровня неисправности в автомобиле точно не выйдет.

А теперь — о рисках внедрения нейросетей. Тут вспоминаются другие серьёзные проблемы нашего общества. Распространение недостоверной информации, например. Как по мне, это происходит из-за недостатка доверия. По идее СМИ должны помогать нам отличать правду от вымысла. Поэтому, когда мы жалуемся на обилие недостоверной информации, мы не должны винить во всём так называемые «фермы ботов». Дело не в них, а в том, что за последние годы мы утратили доверие к СМИ. Над этим мы и должны работать. Но людям как будто стёрли память: им кажется, что во всём виноваты нейросети. Что они и есть главный источник недостоверной информации.

Это, на наш взгляд, говорит о том, как плохо народ понимает суть проблемы. Ему следовало бы взглянуть на неё, как на кризис общественных институтов, и постараться как-то её решить. Вместо этого он видит в ней «доказательство», что нейросети опасны и что лучше избавиться от них. Но даже поставь он перед собой такую цель, ничего бы у него не вышло.

Капур: В каком-то смысле я понимаю тех, кто винит во всём искусственный интеллект и призывает свернуть его разработку.

Прибыли компаний, которые ей занимаются, исчисляются в миллиардах, порой триллионах долларов. Они вкладывают значительную часть этих денег в тренировку больших языковых и других моделей. Они несут определённую ответственность за вред, который нейросети могут нанести обществу. Поэтому, как мне кажется, они так упорно рекламируют водяные знаки в сгенерированном приложениями тексте, называют их эффективным методом борьбы с недостоверной информацией.

Ими даже заинтересовались политтехнологи. Некоторые из тех, кто принимает добровольные обязательства перед Белым домом, уже пользуются водяными знаками в надежде остановить распространение заблуждений.

На деле они — простая формальность. С технологической точки зрения проку от них мало. Даже если бы за недостоверную информацию отвечали только боты, водяные знаки бы их не остановили. Последние слишком легко удалить или подделать.

Они не решат ключевую проблему. И если её не замечать, если мы и дальше будем зацикливаться на внешней стороне вопроса о рисках внедрения нейросетей, наша работа так и останется непродуктивной.

И тут возникает вопрос: несут ли их производители ответственность за то, как ими пользуются окружающие? Как понять, что вред исходит непосредственно от приложения с искусственным интеллектом? И вот здесь, как мне кажется, политтехнологи трудятся в правильном направлении: они активно создают всё более эффективные методы регулирования дипфейков, особенно порнографических.

Хендрикс: Мне нравится, что в своей книге и вообще в своих работах вы призываете нас задуматься о будущем. Решить, кому мы готовы доверить своё будущее.

Вы видите два противоположных пути развития: «Мир Кая» и «Мир Майи». Два сценария, отличающихся тем, как мы относимся к нейросетям, какую роль они играют в нашем обществе и где мы их применяем. Ещё вы часто затрагиваете мысль, что предприниматели Кремниевой долины вкладывают в них столько денег, поскольку надеются стать единственными «продавцами будущего» и как-то по-своему ограничить нашу фантазию.

Задам вам ещё два вопроса — последних. Как вы думаете, сможем ли мы выйти за пределы «коммерческого предложения» Кремниевой долины в технологическом и социальном плане? Изобретём ли мы нечто лучше того, что предлагают бизнесмены?

Капур: Если мне не изменяет память, в одной из глав мы написали, что смотрим в будущее искусственного интеллекта с оптимизмом. Помнится, автор одной из рецензий на нашу книгу раскритиковал нас за это. Его смутило, почему мы придерживаемся какого-то мнения, почему у нас есть своя позиция по вопросу будущего.

С тех пор, как он прислал нам свою рецензию, я часто размышлял о ней. Думаю, я готов ему ответить. Дело в том, что сейчас другое время. В истории внедрения нейросетей в наше общество наступил переломный период. Обстановка вокруг них разряжается. И это, на наш взгляд, позволяет людям формировать своё мнение. У каждого из нас появилось право на свою позицию по поводу того, как создавать нейросети и для чего их использовать. И речь не только обо мне, Арвинде, политтехнологах и других ребятах из Вашингтона, которые ежедневно работают с искусственным интеллектом. Нет, речь о значительной части, о львиной доле населения планеты. Как нам кажется, у всех теперь есть своё мнение о том, где использовать нейросети и как они повлияют на наше будущее.

По этой причине я и смотрю вперёд с таким оптимизмом. Как мне кажется, люди уже достаточно умны: использовать приложения с искусственным интеллектом им во вред стало на порядок труднее. Где они пользуются спросом, так это в решении творческих задач. Только за последние два года увидела свет масса работ, которые невозможно было бы реализовать без помощи нейросетей — в том числе общедоступных.

Словом, текст нашей книги проникнут оптимизмом, хотя она и называется «ИНС змеиное масло». Комбинация чудная, спорить не буду. Но задумайтесь: если вы надеетесь улучшить репутацию искусственного интеллекта в обществе, вам необходимо выяснить, какие приёмы пускают в ход «продавцы змеиного масла», и научить людей не попадаться на их уловки. Тогда оптимистов станет больше.

Нараянан: Полностью согласен с Саяшем. Лично я всегда считал себя убеждённым технооптимистом. И я не видел нужды скрывать это: все мои подписчики в соцсетях уже давно в курсе. Впрочем, некоторые из них до сих пор в шоке.

Да, я считаю себя настоящим технооптимистом. Я увлёкся информатикой более двадцати лет назад, ещё когда учился в университете. Уже тогда я верил, что технологический прогресс пойдёт на благо обществу. А его негативные последствия я изучаю, поскольку надеюсь разработать решения всех потенциальных проблем. Лучше опередить их, чем решать их по мере появления. Такова моя философия в научных исследованиях, и этому же я надеюсь научить наших читателей.

Я придерживаюсь этих взглядов и как семьянин тоже: мы с женой активно обсуждаем роль различных устройств в жизни обоих наших детей. Мы купили каждому из них по планшету, ещё когда им и двух лет не было.

Мы — сторонники технологического прогресса. На наш взгляд, чтобы предупредить проблемы вроде зависимости от гаджетов, надо как можно раньше начать учить своих отпрысков ими пользоваться и внимательно при этом приглядывать за ними. Необходимо привить им такие навыки владения устройствами, которые помогут им в учёбе и защитят от дурного влияния. Именно этим мы с женой каждый день и занимаемся.

Нейросетями мы тоже пользуемся, в том числе во время семейных прогулок на природе. Они сообщают нам, к какому виду относится то или иное дерево, та или иная птица, и так далее. Казалось бы, отдыхать на природе лучше без продвинутой техники. Но я предпочитаю совмещать приятное с полезным, и приложения здесь очень помогают. Я даже специально написал для своих детей ботов, которые обучают их грамоте и многому другому.

Не хочу сказать, что не занимаюсь с ними сам. Занимаюсь, конечно. Но, на мой взгляд, с приложениями некоторые вещи делаются на порядок легче, чем без них. Так что мы советуем не только смотреть в будущее с оптимизмом, но и лучше относиться к нейросетям прямо сейчас: активнее внедрять их туда, где от них будет реальная польза.

Мы не призываем бороться с ними. Наша книга совсем не об этом. Мы просто объясняем, как построить достойное будущее. Тут надо не только разоблачить «продавцов змеиного масла», но и предупредить проблемы вроде применения нейросетей во вред обществу или системных сбоев. Словом, наша книга о том, каких рисков лучше избегать, но написать её нам помог именно оптимизм.

Хендрикс: В конце вы наставляете не доверять будущее искусственного интеллекта тем, кто сейчас возглавляет его разработку. Согласен, хорошего от них ждать не следует. А далее вы призываете простых людей построить будущее нейросетей и определить их роль в обществе. Надеюсь, моих читателей заинтересует ваша книга. Уверен, они сделают ценный вклад в это дело.

Арвинд, Саяш, спасибо, что согласились на интервью.

Капур: Огромное спасибо за тёплый приём.

Нараянан: Спасибо. Приятно было поговорить с вами.

Комментариев нет:

Отправить комментарий