Home » Тайна неожиданных способностей ИИ

Тайна неожиданных способностей ИИ

Как заядлый любитель научной фантастики, мне никогда не удавалось полностью избавиться от «синдром ХАЛ9000» когда речь идет об искусственном интеллекте. Суперкомпьютер, который он создал Артур Кларк в романе «Космическая одиссея 2001 года», впоследствии мастерски экранизированном Стэнли КубрикСимволом дискуссии о том, могут ли машины быть разумными, является дыня, открытая много лет назад его «Имитационная игра» для тех, кого всегда помнят Алан Тьюринг. Дискуссия, которая позже привела к еще один еще более метафизический спор: Могут ли машины стать разумными или развиться, и здесь возникает один из тех смертельных страхов, от которых страдаем мы, фанаты CCFF, — инстинкт выживания. Я не знаю, возможно ли это еще раздеться («спойлер» для любителей неологизмов) фильму и его оригинальному роману почти 56 лет, но необходимо раскрыть факт для тех, кто не знает или не помнит: HAL9000 — главный герой сюжета «2001..», потому что, допустив предполагаемую ошибку в суждении, в конечном итоге убивает всю команду корабля. Ну почти всё: одному из космонавтов удается сбежать и удается отключить животное. Вопрос о том, что случилось с HAL9000, всегда скрывал один из тех первобытных страхов, в стиле Лавкрафт, которые вдохновляют кибернетические сущности в людях. Один из первых «разговоров» с ChatGPT, который у меня состоялся, был о HAL9000 и его ошибкапотому что эта ошибка, если она существует, «почти» человечна, «почти» слишком человечна, как я уже сказал. Ницше. Его ответ продолжает меня удивлять: у современного ИИ его вымышленный предок имеет либо «этический кризис» между их целью защиты миссии и необходимостью скрывать информацию от экипажа, или конфликт «Между их программами или тем, что лучше для их миссии и человечества».

Вот как ChatGPT ответил на ключевой вопрос о персонаже HAL9000: суперкомпьютере из «2001 года, космической одиссеи». Информация


Все это вступление актуально в связи с все более частыми новостями о странные навыки, которыми обладают LLM (Большие языковые модели) неожиданно развиваются во время обучения, и это вызвали огромное удивление у ученых кто с ними работает. Логика подсказывает, что эти модели ИИ, наполненные тоннами данных, которые они усваивают с помощью нейронных сетей, вдохновленных сетями человеческого мозга, во время этого обучения развивают определенные навыки. Надо отметить, что сами дата-сайентисты пока не до конца понимают, что там происходит, но знают, каков результат: ИИ развивает ожидаемые навыки. В результате вход дает выход. Но это также приводит к другим неожиданным последствиям.. Специалисты называют их «возникающее поведение и их уже десятки перечислены. И этот список продолжает расти. Кстати, термин «эмерджентный» не случаен. Биологи, физики и другие учёные используют это слово «чтобы описывать коллективное и самоорганизованное поведение которые появляются, когда большая коллекция вещей действует как единое целое. Статья из престижного научного журнала Квантамагазиниз которого я извлек эту цитату, указывает на то, что это поведение такое же, как и то, которое породило жизнь, когда ряд атомов объединился, чтобы создать живые клетки, или то, которое создает пусть твое или мое сердце продолжает биться в этот момент. «Эмерджентные способности появляются в системах, состоящих из множества отдельных частей. Но исследователи только недавно они смогли документально подтвердить эти навыки в LLM, поскольку эти модели выросли и достигли огромных размеров», — говорится в статье за ​​подписью Эстебана Орнеса в вышеупомянутом североамериканском журнале (вот версия на испанском). Первоначально это казалось вопросом размера: чем больше модель, тем больше у нее непредвиденных способностей. Но, к большему удивлению, эти способности проявились не только в гигантских моделях Google, OpenAI или META: существовали небольшие модели с несколькими миллионами параметров, которые давали тот же эффект. Его особенность? Они были обучены с небольшим количеством данных, но с высоким качеством. Если на этом этапе кто-то начинает беспокоиться, не читайте следующее. Исследователям Google Brain уже удалось это установить. заставить LLM рассуждать с «цепочка мыслей», Например, внезапное побуждение ИИ объяснить себя облегчило этой модели правильное решение сложной математической задачи, которая без этого сообщения о «самопознании» или «самосознании» Я не знал, как решитьр. Каждый раз, когда ИИ оказывается под давлением, специалисты говорят о концепции «чрезвычайной ситуации», созданной с помощью этой системы «цепочки мыслей», начинают происходить странные вещи. Если вы прочитали книгу о передовая нейробиология Вы можете столкнуться с очень похожими подходами, несмотря на то, что мы говорим о человеческом мозге, который также способен невероятные вещи когда они попадают в экстремальные ситуации.

Read more:  Амазонка может содержать тысячи неоткрытых древних сооружений

Это давление также может возникнуть поставить двух ИИ лицом к лицу: один действует творчески, обдумывая, как решить проблему, прежде чем решать ее эффективно, в то время как другой действует как проверяющий и контролирующий результаты. Это не новая система в обучении искусственного интеллекта, но она дает непредвиденные результаты в дисциплине, которая измеряет зрелость этой технологии: математике. Несколько дней назад ДипМайндодна из величайших лабораторий искусственного интеллекта в Google, объявил, что его модель FunSearch решил «проблему набора границ», старая загадка глубокой математики, которая вызвала множество конфронтаций из-за отсутствия согласия о том, как подойти к проблеме. «FunSearch», который в принципе не был моделью для решения математических задач, появляется в этой дисциплине и уже решил другую популярную математическую задачу с более быстрыми решениями, чем известные до сих пор: проблема упаковки контейнеров. Один из исследователей DeepMind Альхуссейн Фаузи признал, что не объяснено, откуда берутся эти необыкновенные способности.

И тут мы возвращаемся к HAL9000 и его «ошибке». непредсказуемость Как мы видим, в этих новых моделях поведения есть одна яркая часть, но есть и другая, которая порождает риски. Это то, чему гики научились в «Звездных войнах»: у силы есть светлая сторона, но есть и темная сторона. Дип Гангули, учёный из Anthropic, компании братьев Амодей, создавшей ИИ «Клод», говорит это очень ясно: «Мы не знаем, как узнать, в каком типе применения появится способность причинять вред, будь то легкий или непредсказуемый». галлюцинации или ошибки Они — лишь верхушка айсберга темной стороны ИИ. Раз уж мы этим занялись, пример: ChatGPT. был неправ Когда я попросил его написать этот пост в блоге, который создал Anthropic и приписал его руководителям OpenAI, Сэм Альтман и Грег Брокманвместо братьев Амодей, которые действительно были в OpenAI, но ушли именно для того, чтобы основать Anthropic. «Извиняюсь, я допустил ошибку в своем предыдущем ответе», — ответил ChatGPT, когда я указал на его полную неправоту. Хорошо, что существует множество моделей ИИ. Если вы сделаете то, что сделал я, уже знавший, что Антропик был от Амодеи, вы избежите ошибки: спросите другого ИИ. Растерянность, на мой взгляд, намного лучше, чем у других ИИ, потому что их ответы основаны на конкретных источниках, которые они также цитируют, и они все поняли правильно. Не обязательно доверять одному, а спросить нескольких.

Read more:  Искусственный интеллект просматривает кадры с нательных камер полиции Лос-Анджелеса, чтобы отсеять грубый тон и агрессивную лексику

Все это очень хорошо суммировал один из отцов техники, Джефф Безососнователь Амазонка. В недавнем интервью Безос отметил, отвечая на свое видение искусственного интеллекта концепциями, выходящими за рамки технологий или инженерии. «Великие языковые модели — это не изобретения, это открытия». Говорится. И он уточняет: « постоянные сюрпризы по поводу своих возможностей «Они показывают, что это не объекты, созданные инженерами, а скорее открытия». Безос из крыла интегрированный и демонстрирует свой оптимизм в отношении ИИ: «Я думаю, что эти мощные инструменты скорее помогут и спасут нас, чем выведут из равновесия и уничтожат нас». Аминь, мистер Джефф…


2023-12-20 14:07:06


1703137560
#Тайна #неожиданных #способностей #ИИ

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.