Home » Технологическая индустрия США борется за руководящие принципы для ИИ

Технологическая индустрия США борется за руководящие принципы для ИИ

Нью-Йорк Ну да. Еще было в марте Тесла-Шеф Илон Маск в открытом письме призвал к шестимесячной заморозке разработки новых приложений на основе искусственного интеллекта (ИИ). Это «опасность для человечества», предупредил Маск. Теперь стало известно, что он, по-видимому, сам разработал языковую модель ИИ.

Как сообщила в пятницу Financial Times со ссылкой на инсайдеров, Маск работает над созданием альтернативы ИИ.Системный чатGPTв Майкрософт используется. Для этого миллиардер основал компанию X.AI, собрал команду разработчиков и крупно закупил видеокарты. Он также ведет переговоры с инвесторами в свои корпорации. Тесла и SpaceX о записи.

Оборот показывает, насколько велика шумиха, что идея ChatGPT началась. Также Google и Мета группы Facebookбанки а стартапы в лихорадке ИИ. Был только в четверг Амазонка представила новый сервис под названием Bedrock, который должен позволить своим облачным клиентам создавать тексты, сгенерированные искусственным интеллектом. Бедрок «уже большой и отличный», Амазонка-Шеф Энди Джасси.

Критики сомневаются в «крутизне» новых систем. Многие проблемы не решены: Системы ИИ «галлюцинируют», выдают ложную информацию и слишком часто не раскрывают свою базу данных.. Последние планы создателей ChatGPT – о сканировать радужную оболочку каждого – усилить дискомфорт.

Технологическая индустрия США обсуждает более интенсивно, чем в течение многих лет: как может выглядеть этичное и ответственное использование ИИ? Где границы технологий и какой контроль необходим приложениям ИИ? Возникают четыре ориентира.

Руководство 1: Уточните границы

Важным дискуссионным форумом является некоммерческая организация «Партнерство по ИИ» (PAI). Около 100 партнеров включают ЯблокоGoogle и Мета, Университет Беркли и Психологическая ассоциация США. Цель — разработка безопасных, честных и прозрачных приложений ИИ.

Read more:  Новая Skoda Superb находится на старте

PAI встретилась в Нью-Йорке на прошлой неделе. Франческа Росси, глобальный руководитель отдела этики ИИ в IBMсообщили, что участники согласились с тем, что технология предлагает «чрезвычайно большие возможности»: никому не нужно бояться «робота-убийцы», как в фантастическом фильме.

«Языковые модели записывают наиболее вероятное следующее слово после первых 300 слов. Они не думают, они не могут лгать или говорить правду», — говорит Росси. Мы далеки от «самоосознающего» ИИ, который мог бы восстать против своих создателей-людей.

Тем не менее, есть риски — если вы не знаете пределов технологии. «ИИ ни хорош, ни плох. Но она также не нейтральна», — говорит Росси. Большие языковые модели, такие как ChatGPT, выведут разработку на новый уровень.

Илон Маск

Босс Tesla призвал заморозить разработку ИИ на шесть месяцев — и теперь запускает свой собственный стартап.

(Фото: Рейтер)

Раньше ИИ только интерпретировал. «Впервые он генерирует контент, то есть создает что-то совершенно новое на основе входных данных — будь то текст, изображения или видео», — говорит Росси. «ИИ может генерировать неприемлемый контент или даже галлюцинации».

Это может «привести к неправильным выводам». Вместо того чтобы заглядывать в далекое будущее, исследователям и компаниям придется анализировать текущие ограничения моделей. «Самая большая опасность — переоценить возможности ИИ, — говорит Росси.

Руководство 2: Создайте прозрачность

Примером передовых технологий является Amazon. Группа разработала программу искусственного интеллекта для найма, которая должна была выявлять лучшие таланты среди соискателей на основе резюме. Поскольку большинство программистов Amazon — мужчины, ИИ пришел к выводу, что женщины работают плохо, и отклонил их заявки.

Даже когда разработчики научили ИИ не делать соответствующие отрицательные выборки, он нашел другие способы дискриминации не-мужчин или даже небелых заявителей. Amazon закрыл проект в 2018 году.

В мире технологий это явление известно как проблема «выравнивания». «Системы ИИ обучены максимизировать результат для достижения конкретной цели», — объясняет председатель PAI Ребекка Финли. «Однако, если ваша модель недостаточно определена, вы получите бесполезные результаты».

Франческа Росси

«ИИ ни хорош, ни плох. Но это тоже не нейтрально», — говорит эксперт по ИИ из IBM.

(Фото: Leverhulme Center for the Future of Intelligence)

Проблема: часто невозможно увидеть, как системы ИИ принимают решения. Результат: «Мы должны раскрыть процессы».

По словам Финли, члены PAI высказались за то, чтобы всегда публиковать модели ИИ с так называемыми карточками моделей. «Эти листы данных прозрачно документируют компоненты, составляющие систему, на протяжении всего процесса разработки».

Рекомендация 3: проверьте базу данных

С вопросом о том, из каких компонентов состоит алгоритм, тесно связана база данных, на основании которой он делает выводы. Чем больше объем данных, поступающих в ИИ, тем быстрее он может развиваться. Недаром босс Amazon Ясси подчеркивает преимущество наличия собственной сокровищницы данных.

Но одни только большие объемы данных не приводят к полезному ИИ. должен был Майкрософт отключить чат-бота Tay 2016 всего через 24 часа. Программа Galactica des Фейсбук-Группа Мета, состоящая из 48 миллионов источников в основном из Интернет прослужил всего три дня в ноябре, прежде чем расистские или бессмысленные заявления привели к его закрытию.

Подробнее об искусственном интеллекте читайте здесь:

«Один из способов свести к минимуму галлюцинации — контролировать используемую базу данных», — говорит специалист по информатике IBM Росси. «Тогда модель ИИ не использует Интернет свободно, а использует проверенный пул информации. Это полезно в корпоративных сетях».

IBM полагается на этот подход. Его также рекомендует ведущий мировой геоинформационный сервис Esri из Калифорнии. «У нас уже давно есть ИИ, как в спутниковых снимках, так и в тексте», — говорит основатель Джек Дэнджермонд. В настоящее время они изучают, как интегрировать большие языковые модели, такие как ChatGPT, в свои собственные решения. «Но мы применяем ИИ только к нашим собственным данным, чтобы избежать рисков и плагиата».

Правило 4: Люди за рулем

Приведенные примеры показывают, что человеческий фактор сохранит свое значение и в будущем. Вы не можете сами регулировать технологию, она слишком быстро развивается для этого, говорит Кристина Монтгомери, которая консультирует Министерство торговли США по вопросам ИИ. «Но мы должны регулировать их использование».

Правительство США уже изучает возможные руководящие принципы. Некоторые компании вообще запретили использование ChatGPT. Другие экспериментируют с тем, чтобы второй ИИ проверял результаты первой системы под наблюдением человека.

По словам Монтгомери, самый важный принцип, которого также придерживается PAI, заключается в следующем: «Пользователь всегда должен знать, когда он разговаривает с ИИ. И всегда должен быть человек, вовлеченный в процесс принятия решений».

Для технологической отрасли эта рекомендация походит на тревожный звонок: в рамках их последнего раунда увольнений члены PAI Microsoft, Meta, Google и Amazon уволили многих из своих команд по этике ИИ. И Маск тоже не подает пример. С его службой коротких сообщений Твиттер он быстро с этим справился — и уволил весь отдел этики ИИ.

Более: Творчество от машины – Этот человек изменит вашу жизнь

2023-04-16 15:21:10


1681678635
#Технологическая #индустрия #США #борется #за #руководящие #принципы #для #ИИ

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.