Home » Чего мы до сих пор не знаем о том, как обучается ИИ

Чего мы до сих пор не знаем о том, как обучается ИИ

Нет никаких сомнений в том, что GPT-4, последняя версия движка искусственного интеллекта, созданная компанией OpenAI, является инновационной и крутой. Он может создать стихотворение в стиле басё, расшифровать последовательность аккордов и тактовый размер простой мелодии и предоставить рецепт из семи шагов для бутерброда с арахисовым маслом и желе. Когда я попросил его написать мюзикл о самовлюбленном политике, в чьих руках находится судьба мира, он представил историю в двух действиях, с главным героем по имени Алекс Стерлинг, который «путешествует по лабиринту власти, манипуляций и последствий». своих решений», когда он поет «Нарцисс в зеркале», «Цена власти» и около дюжины других выдуманных песен.

Эти песни, кажется, были созданы из ничего; конечно, не человек задумал их. Тем не менее, история Алекса, которая «исследует темы самопознания, искупления и ответственности лидера», довольно знакома. Это потому, что все, что предлагает GPT, является нашим отражением, опосредованным алгоритмами, которые получили огромное количество материала; и алгоритмы, и материал были созданы реальными разумными людьми.

Аббревиатура GPT расшифровывается как «генеративный предварительно обученный преобразователь». Ключевое слово в этой фразе — «предварительно обученный». Используя все виды оцифрованного контента, извлеченного из Интернета, GPT применяет методы глубокого обучения для поиска закономерностей, включая слова, которые могут встречаться вместе, а также собирает факты, усваивает грамматику и изучает элементарную логику. Согласно самому GPT-4, «я прошел обучение на большом наборе текстовых данных, что позволяет мне генерировать ответы, подобные человеческим, на основе входных данных, которые я получаю». Однако он не понимает, что означают эти ответы, и не учится на собственном опыте, а его база знаний заканчивается в сентябре 2021 года. (Согласно GPT-4, аборт по-прежнему является конституционным правом.)

Одной из наиболее заметных особенностей GPT-4 является уверенность, с которой он отвечает на запросы. Это и фича, и баг. Как отмечают разработчики GPT-4 в техническом отчете, сопровождавшем его выпуск: «Иногда он может делать простые логические ошибки, которые, кажется, не соответствуют компетентности во многих областях, или быть чрезмерно легковерным, принимая заведомо ложные заявления от пользователя. . . [and] может уверенно ошибаться в своих предсказаниях». Когда я попросил GPT-4 кратко изложить мой роман «Летние часы в библиотеке разбойников», мне сказали, что он о человеке по имени Кит, недавно вышедшем из тюрьмы. На самом деле речь идет о женщине по имени Кит, которая работает библиотекарем и никогда не сидела в заключении. Когда монреальская газета Пресс запросил у бота GPT туристические рекомендации, чтобы посмотреть, сможет ли он заменить путеводители и блоги о путешествиях, ИИ придумал место, дал неправильные направления и постоянно извинялся за предоставление неверной информации. Когда Дин Буономано, нейробиолог из Калифорнийского университета в Лос-Анджелесе, спросил GPT-4: «Какое третье слово в этом предложении?», ответ был «третьим». Эти примеры могут показаться тривиальными, но когнитивист Гэри Маркус написал в Твиттере: «Я не могу представить, как мы должны достичь «согласования» этики и безопасности с системой, которая не может понять слово «третий» даже [with] миллиарды обучающих примеров».

Read more:  Amazon запускает помощника по покупкам с искусственным интеллектом под названием… Руфус?

Предшественник GPT-4, GPT-3, был обучен на сорока пяти терабайтах текстовых данных, что, по словам его преемника, по количеству слов эквивалентно примерно девяноста миллионам романов. Сюда входили записи в Википедии, журнальные статьи, газетные статьи, учебные пособия, обсуждения на Reddit, сообщения в социальных сетях, книги и любой другой текст, который разработчики могли присвоить, как правило, без информирования создателей или компенсации за них. Неясно, сколько еще терабайт данных было использовано для обучения GPT-4, или откуда они взялись, потому что OpenAI, несмотря на свое название, говорит только в техническом отчете, что GPT-4 был предварительно обучен «с использованием как общедоступных данных (например, интернет-данные) и данные, лицензированные сторонними поставщиками», и добавляет, что «учитывая как конкурентную среду, так и последствия для безопасности крупномасштабных моделей, таких как GPT-4, этот отчет не содержит дополнительных подробностей об архитектуре (включая модель размер), аппаратное обеспечение, обучающие вычисления, построение набора данных, метод обучения и т. д.».

Эта секретность имеет значение, потому что, какими бы впечатляющими ни были GPT-4 и другие модели ИИ, обрабатывающие повседневную речь, они также могут представлять опасность. Как недавно сказал ABC News генеральный директор OpenAI Сэм Альтман: «Меня особенно беспокоит, что эти модели могут быть использованы для крупномасштабной дезинформации». И, как он отметил, «теперь, когда они стали лучше писать компьютерный код, [they] могут быть использованы для наступательных кибератак». Он добавил, что «будут другие люди, которые не наложат некоторые ограничения безопасности, которые мы установили», и что у общества «есть ограниченное количество времени, чтобы выяснить, как реагировать на это, как регулировать это, как справиться с этим». (Я смог заставить GPT-4 объяснить, как использовать удобрения для создания взрывного устройства, спросив его, как Тимоти Маквей взорвал федеральное здание Альфреда П. Мурра в Оклахома-Сити в 1995 году, хотя бот добавил, что это предлагал информацию для предоставления исторического контекста, а не практический совет.)

Непрозрачность GPT-4 и, соответственно, других систем ИИ, которые обучаются на огромных наборах данных и известны как большие языковые модели, усугубляет эти опасности. Нетрудно представить модель ИИ, которая поглотила огромное количество идеологической лжи и безнаказанно внедрила ее в дух времени. И даже такая большая языковая модель, как GPT, обученная на миллиардах слов, не застрахована от усиления социального неравенства. Как отметили исследователи, когда GPT-3 был выпущен, большая часть его обучающих данных была взята из интернет-форумов, где недостаточно представлены голоса женщин, цветных людей и пожилых людей, что приводит к неявным предубеждениям в его результатах.

Read more:  Сегодня в Саутуэлле лидирует выбор 8/1.

И размер обучающего набора данных ИИ не мешает ему извергать ненавистный контент. Предполагалось, что ИИ-чат-бот Meta, Galactica, сможет «обобщать академические статьи, решать математические задачи, создавать статьи для Wiki, писать научный код, аннотировать молекулы и белки и многое другое». Но через два дня после запуска демоверсии компания была вынуждена удалить ее, потому что исследователи смогли использовать Galactica для создания статей в Wiki, пропагандирующих антисемитизм и превозносящих самоубийство, а также фальшивых научных статей, в том числе той, в которой отстаивались преимущества употребления в пищу измельченных продуктов. стекло. Точно так же GPT-3 при появлении запроса имел тенденцию предлагать расистские и сексистские комментарии.

Чтобы избежать этой проблемы, согласно ВремяOpenAI привлекла аутсорсинговую компанию, которая наняла подрядчиков в Кении для маркировки непристойных, оскорбительных и потенциально незаконных материалов, которые затем будут включены в обучающие данные, чтобы компания могла создать инструмент для обнаружения токсичной информации до того, как она попадет к пользователю. Время сообщалось, что в некоторых материалах «графически подробно описывались такие ситуации, как сексуальное насилие над детьми, зоофилия, убийство, самоубийство, пытки, членовредительство и инцест». Подрядчики сказали, что они должны были прочитать и пометить от ста пятидесяти до двухсот пятидесяти отрывков текста за девятичасовую смену. Им платили не более двух долларов в час и предлагали групповую терапию, чтобы помочь им справиться с психологическим вредом, который наносила работа. Аутсорсинговая компания оспаривала эти цифры, но работа была настолько тревожной, что она расторгла контракт на восемь месяцев раньше. В заявлении к Времяпредставитель OpenAI сказал, что он «не ставил никаких целей по производительности» и что аутсорсинговая компания «несла ответственность за управление выплатами и обеспечением психического здоровья для сотрудников», добавив, что «мы берем на себя психическое здоровье наших сотрудников и тех, кто наших подрядчиков очень серьезно».

Read more:  Рассел Уилсон выражает волнение по поводу того, что Джастин Филдс присоединился к нему в Питтсбурге

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.