Как заядлый любитель научной фантастики, мне никогда не удавалось полностью избавиться от «синдром ХАЛ9000» когда речь идет об искусственном интеллекте. Суперкомпьютер, который он создал Артур Кларк в романе «Космическая одиссея 2001 года», впоследствии мастерски экранизированном Стэнли КубрикСимволом дискуссии о том, могут ли машины быть разумными, является дыня, открытая много лет назад его «Имитационная игра» для тех, кого всегда помнят Алан Тьюринг. Дискуссия, которая позже привела к еще один еще более метафизический спор: Могут ли машины стать разумными или развиться, и здесь возникает один из тех смертельных страхов, от которых страдаем мы, фанаты CCFF, — инстинкт выживания. Я не знаю, возможно ли это еще раздеться («спойлер» для любителей неологизмов) фильму и его оригинальному роману почти 56 лет, но необходимо раскрыть факт для тех, кто не знает или не помнит: HAL9000 — главный герой сюжета «2001..», потому что, допустив предполагаемую ошибку в суждении, в конечном итоге убивает всю команду корабля. Ну почти всё: одному из космонавтов удается сбежать и удается отключить животное. Вопрос о том, что случилось с HAL9000, всегда скрывал один из тех первобытных страхов, в стиле Лавкрафт, которые вдохновляют кибернетические сущности в людях. Один из первых «разговоров» с ChatGPT, который у меня состоялся, был о HAL9000 и его ошибкапотому что эта ошибка, если она существует, «почти» человечна, «почти» слишком человечна, как я уже сказал. Ницше. Его ответ продолжает меня удивлять: у современного ИИ его вымышленный предок имеет либо «этический кризис» между их целью защиты миссии и необходимостью скрывать информацию от экипажа, или конфликт «Между их программами или тем, что лучше для их миссии и человечества».
Все это вступление актуально в связи с все более частыми новостями о странные навыки, которыми обладают LLM (Большие языковые модели) неожиданно развиваются во время обучения, и это вызвали огромное удивление у ученых кто с ними работает. Логика подсказывает, что эти модели ИИ, наполненные тоннами данных, которые они усваивают с помощью нейронных сетей, вдохновленных сетями человеческого мозга, во время этого обучения развивают определенные навыки. Надо отметить, что сами дата-сайентисты пока не до конца понимают, что там происходит, но знают, каков результат: ИИ развивает ожидаемые навыки. В результате вход дает выход. Но это также приводит к другим неожиданным последствиям.. Специалисты называют их «возникающее поведение и их уже десятки перечислены. И этот список продолжает расти. Кстати, термин «эмерджентный» не случаен. Биологи, физики и другие учёные используют это слово «чтобы описывать коллективное и самоорганизованное поведение которые появляются, когда большая коллекция вещей действует как единое целое. Статья из престижного научного журнала Квантамагазиниз которого я извлек эту цитату, указывает на то, что это поведение такое же, как и то, которое породило жизнь, когда ряд атомов объединился, чтобы создать живые клетки, или то, которое создает пусть твое или мое сердце продолжает биться в этот момент. «Эмерджентные способности появляются в системах, состоящих из множества отдельных частей. Но исследователи только недавно они смогли документально подтвердить эти навыки в LLM, поскольку эти модели выросли и достигли огромных размеров», — говорится в статье за подписью Эстебана Орнеса в вышеупомянутом североамериканском журнале (вот версия на испанском). Первоначально это казалось вопросом размера: чем больше модель, тем больше у нее непредвиденных способностей. Но, к большему удивлению, эти способности проявились не только в гигантских моделях Google, OpenAI или META: существовали небольшие модели с несколькими миллионами параметров, которые давали тот же эффект. Его особенность? Они были обучены с небольшим количеством данных, но с высоким качеством. Если на этом этапе кто-то начинает беспокоиться, не читайте следующее. Исследователям Google Brain уже удалось это установить. заставить LLM рассуждать с «цепочка мыслей», Например, внезапное побуждение ИИ объяснить себя облегчило этой модели правильное решение сложной математической задачи, которая без этого сообщения о «самопознании» или «самосознании» Я не знал, как решитьр. Каждый раз, когда ИИ оказывается под давлением, специалисты говорят о концепции «чрезвычайной ситуации», созданной с помощью этой системы «цепочки мыслей», начинают происходить странные вещи. Если вы прочитали книгу о передовая нейробиология Вы можете столкнуться с очень похожими подходами, несмотря на то, что мы говорим о человеческом мозге, который также способен невероятные вещи когда они попадают в экстремальные ситуации.
Это давление также может возникнуть поставить двух ИИ лицом к лицу: один действует творчески, обдумывая, как решить проблему, прежде чем решать ее эффективно, в то время как другой действует как проверяющий и контролирующий результаты. Это не новая система в обучении искусственного интеллекта, но она дает непредвиденные результаты в дисциплине, которая измеряет зрелость этой технологии: математике. Несколько дней назад ДипМайндодна из величайших лабораторий искусственного интеллекта в Google, объявил, что его модель FunSearch решил «проблему набора границ», старая загадка глубокой математики, которая вызвала множество конфронтаций из-за отсутствия согласия о том, как подойти к проблеме. «FunSearch», который в принципе не был моделью для решения математических задач, появляется в этой дисциплине и уже решил другую популярную математическую задачу с более быстрыми решениями, чем известные до сих пор: проблема упаковки контейнеров. Один из исследователей DeepMind Альхуссейн Фаузи признал, что не объяснено, откуда берутся эти необыкновенные способности.
И тут мы возвращаемся к HAL9000 и его «ошибке». непредсказуемость Как мы видим, в этих новых моделях поведения есть одна яркая часть, но есть и другая, которая порождает риски. Это то, чему гики научились в «Звездных войнах»: у силы есть светлая сторона, но есть и темная сторона. Дип Гангули, учёный из Anthropic, компании братьев Амодей, создавшей ИИ «Клод», говорит это очень ясно: «Мы не знаем, как узнать, в каком типе применения появится способность причинять вред, будь то легкий или непредсказуемый». галлюцинации или ошибки Они — лишь верхушка айсберга темной стороны ИИ. Раз уж мы этим занялись, пример: ChatGPT. был неправ Когда я попросил его написать этот пост в блоге, который создал Anthropic и приписал его руководителям OpenAI, Сэм Альтман и Грег Брокманвместо братьев Амодей, которые действительно были в OpenAI, но ушли именно для того, чтобы основать Anthropic. «Извиняюсь, я допустил ошибку в своем предыдущем ответе», — ответил ChatGPT, когда я указал на его полную неправоту. Хорошо, что существует множество моделей ИИ. Если вы сделаете то, что сделал я, уже знавший, что Антропик был от Амодеи, вы избежите ошибки: спросите другого ИИ. Растерянность, на мой взгляд, намного лучше, чем у других ИИ, потому что их ответы основаны на конкретных источниках, которые они также цитируют, и они все поняли правильно. Не обязательно доверять одному, а спросить нескольких.
Все это очень хорошо суммировал один из отцов техники, Джефф Безососнователь Амазонка. В недавнем интервью Безос отметил, отвечая на свое видение искусственного интеллекта концепциями, выходящими за рамки технологий или инженерии. «Великие языковые модели — это не изобретения, это открытия». Говорится. И он уточняет: « постоянные сюрпризы по поводу своих возможностей «Они показывают, что это не объекты, созданные инженерами, а скорее открытия». Безос из крыла интегрированный и демонстрирует свой оптимизм в отношении ИИ: «Я думаю, что эти мощные инструменты скорее помогут и спасут нас, чем выведут из равновесия и уничтожат нас». Аминь, мистер Джефф…
2023-12-20 14:07:06
1703137560
#Тайна #неожиданных #способностей #ИИ