Одних знаний мало: почему искусственный интеллект пока не достиг уровня человеческого

Оригинал: Том Зигфрид

Перевод и редактура: Павел «Rumiflan» Очкин

СМИ и блоггеры бьют тревогу из-за растущей роли искусственного интеллекта в жизни населения планеты. Они пишут о самостоятельных чат-ботах, массовой цензуре, росте безработицы и других возможных последствиях его внедрения. Данный процесс сравнивают с распространением африканизированных пчёл с юга на север США в 1980-х.

Но учёные давно подозревали, что господство человечества над машинами не вечно. Задумались об этом ещё в 1997 году, когда компьютер Deep Blue компании IBM одолел 13-го чемпиона мира по шахматам Гарри Каспарова.

Тем не менее машины активно усиливают. В 1990-х они не справлялись со многими задачами, от преобразования речи в текст до диагностики заболеваний. Подъём вычислительных мощностей в середине 2000-х привёл к популяризации метода глубокого обучения. Он увеличил способности компьютеров подобно тому, как высокая умственная и физическая активность повышает IQ человека. Уже в 2011-2012 годах увидели свет нейросети, способные распознавать изображения, читать дорожные знаки, улучшать качество фотографий и даже быстрее машинисток преобразовывать устную речь в текст.

От распознавания к генерации

Знания без применения — мертвый груз

До 2020-х нейросети было легче обмануть. Группа исследователей взяла знак «Стоп», нанесла на него пару-тройку наклеек и показала машине. Последняя приняла его за знак «Ограничение скорости 80». Чтобы такого не случалось, нейросеть надо тренировать на множестве примеров, и каждый должен немного отличаться от остальных. То есть объект один, но выглядеть может по-разному.

Ещё они больше подходили для узконаправленной работы. Приложение для распознавания изображений могли довести до «совершенства», но обучить его чему-то другому — нет. Тогда в интернете было недостаточно массивов данных, да и доступ к ним был более ограничен. В те годы никто бы не доверил компьютеру вести колонку в газете.

С тех пор они сильно изменились. Современные нейросети угрожают заменить собой не только авторов текстов, но и представителей других профессий.

«На дворе новая эра компьютерного разума, — считает Мелани Митчелл, эксперт по искусственному интеллекту из Института Санта-Фе. — „Революция глубокого обучения“ 2010-х осталась далеко позади. Настало время генеративных приложений 2020-х».

Их научили многим вещам, на которые, как считалось ранее, способны только люди. Когда такая нейросеть отвечает на вопросы, её речь не отличить от человеческой. У неё можно заказать стихотворение, статью, юридическую справку, достойное публикации изображение и даже оригинальное видео. Главное — чётко сформулировать и отправить запрос.

Большие языковые модели

Сегодня в распоряжении компьютеров — триллионы статей и переписок

Современные генеративные приложения работают благодаря особым нейросетям. От своих предшественниц они отличаются размахом: их тренируют на всём, что находится в свободном доступе в интернете. В них загружают массу материалов — в том числе оцифрованные копии книг разных жанров. Они учатся работать со словами, их основами, фразеологизмами, символами и даже математическими выражениями.

Называются такие нейросети «большими языковыми моделями». ChatGPT, у которой берут «стройматериалы» многие чат-боты, — одна из них.

Они изучают сочетания языковых единиц и на основании этих знаний делают прогнозы. Когда чат-боту поручают составить статью или задают вопрос, модель старается предсказать, с чего начать и как продолжить текст. Она подбирает слово, приложение выводит его на экран, она находит «идеальное» следующее слово, и так до тех пор, пока задача не будет выполнена. За это критики называют большие языковые модели «системами автозамены на стероидах».

Их используют для самых разных целей. Такой нейросети под силу написать рассказ в стиле известного писателя-романиста, решить загадку или по контексту определить значение слова «bill». Последнее можно перевести как «счёт», «законопроект» или «клюв».

«Эти нейросети довольно умны», — отметила Митчелл на февральском съезде Американской ассоциации содействия развитию науки в Денвере.

Проблема адаптации

Нестандартное условие в запросе плохо сказывается на выводе приложения

Большие языковые модели спровоцировали оживлённые дискуссии среди экспертов в сфере машинного обучения. По словам одних, если деятельность таких нейросетей не регулировать, резко возрастёт уровень безработицы среди людей. В том числе не у дел останутся авторы-ведущие колонок во всевозможных изданиях. Кто-то и вовсе предсказывает гибель цивилизации. Другие считают подобные страхи преувеличенными. По крайней мере пока.

Экспертов волнует вопрос: «Осознают ли большие языковые модели, чем занимаются и какой информацией делятся?». Если верить некоторым исследователям, до какой-то степени такая нейросеть знает, что делает. По их словам, чат-боты уже умеют рассуждать, как живые люди. Говорят и о возникновении у них некоего подобия сознания.

Мелани Митчелл и другие учёные настаивают, что большие языковые модели не понимают, как устроен наш мир. Во всяком случае они видят его не таким, каким его видит человек. 14 февраля 2024 года вышел её совместный научный доклад с Мартой Льюис из Бристольского университета. Прочесть его можно на arXiv.org. Если верить его тексту, у больших языковых моделей плохо получается адаптировать свои навыки к новым условиям.

В качестве примера они приводят игры с цепочками букв. Это когда участнику дают строчку вроде «abcd» и спрашивают, какая идёт дальше. Тут надо изменить букву в конце на следующую за ней в алфавите. Получится «abce». Человек справляется с этим в два счёта, да и компьютер можно обучить. Оба скажут, что после «ijkl» будет «ijkm». С латинским алфавитом сейчас знакома большая часть людей и вычислительных машин.

У нейросети трудности возникают, когда в запросе указывают другой «алфавит». Митчелл и Льюис поставили перед ней ту же задачу со строчками, но с иным порядком букв: a u c d e f g h i j k l m n o p q r s t b v w x y z. Потом буквы заменили символами вроде звёздочки и восклицательного знака. Человек в обоих случаях справился, а большая языковая модель — нет. Она не смогла адаптировать свои алгоритмы работы с официальным алфавитом к «новому» алфавиту.

«Люди достаточно быстро решают задачи, даже когда их условиях противоречат объективным фактам. А вот модели GPT в таких ситуациях теряются», — говорится в докладе.

Митчелл и Льюис провели и другие испытания. Результаты те же: большие языковые модели не справляются с заданиями, которых не было в программе их обучения. На основании этого Митчелл делает вывод, что они понимают, как устроен мир, на порядок хуже людей.

«Надёжность и способность правильно действовать в новой ситуации — для меня именно эти качества отличают того, кто понимает происходящее», — высказалась она на том же съезде Американской ассоциации содействия развитию науки.

По словам Митчелл, люди мыслят концептуально. Они оперируют абстрактными понятиями вроде «категория», «ситуация» и «событие». Это позволяет им строить у себя в голове причинно-следственные связи и предсказывать возможные последствия тех или иных своих действий. Даже в совершенно новых для себя условиях.

«Меня поражает способность людей посредством аналогий и метафор адаптировать свои представления о мире к новым ситуациям», — высказалась она.

Путь к очеловечиванию компьютеров

В будущем роботы смогут ассимилироваться в наши общества

Однако Митчелл не хочет сказать, что машины никогда не научатся видеть мир таким же, каким его видят люди. Эксперименты с нейросетями продолжаются, и на них по-прежнему выделяют внушительные бюджеты. Эксперты не исключают: однажды чат-бота невозможно будет отличить от человека.

Просто для этого потребуются другие технологии. Проблема больших языковых моделей — в порядке, в котором они познают наш мир. Они сначала овладевают письменной и устной речью и только потом пытаются создавать какие-то концепты. У людей всё наоборот: первые годы жизни ребёнок мыслит абстракциями, а потом его учат описывать их словами.

На большие языковые модели в данном вопросе полагаться не стоит. Некоторые вообще считают, что проводить сутки в интернете — не самый лучший способ повысить уровень искусственного или какого-либо другого интеллекта.

Комментариев нет:

Отправить комментарий