Home » OpenAI уволила Сэма Альтмана, чтобы помешать ему выпустить опасную для человека модель искусственного интеллекта, отчет

OpenAI уволила Сэма Альтмана, чтобы помешать ему выпустить опасную для человека модель искусственного интеллекта, отчет

Новый отчет пролил некоторый свет на причину увольнения генерального директора OpenAI Сэма Альтмана на прошлой неделе.

Альтман присоединился к Microsoft после изгнания из OpenAI. Совет директоров OpenAI недавно отменил свое решение, и Альтман был восстановлен на посту генерального директора. Однако до сих пор неясно, почему его отстранили от должности генерального директора.

В своем официальном заявлении OpenAI объяснила увольнение Альтмана отсутствием у него прозрачного общения с компанией.

Настоящая причина увольнения Сэма Альтмана

Однако отчет анонимного сотрудника OpenAI предполагает, что компания была на грани разработки модели общего искусственного интеллекта (AGI) под кодовым названием Q*, которая могла бы угрожать человечеству.

OpenAI могла принять решение о быстром развертывании Q* из-за агрессивного подхода Альтмана к выпуску новых функций. Однако некоторые сотрудники считали, что модель может оказаться опасной угрозой для людей. Это могло быть настоящей причиной увольнения Альтмана.

Что такое Q*?

С нами связался анонимный сотрудник OpenAI. Рейтер чтобы объяснить реальную ситуацию в OpenAI. По словам источника, Q* (произносится как Q-Star) — это крупный прорыв в исследованиях OpenAI в области искусственного интеллекта.

Стоит отметить, что AGI более мощный, чем AI, который способен обучаться на основе данных, предоставленных модели. Помимо решения сложных проблем, AGI может обобщать информацию и обладает подобной человеческой способности учиться на своих ошибках.

Источник утверждает, что OpenAI почти разработала Q*. Казалось, что этот AGI сможет без особых усилий превзойти людей в решении экономически важных задач. Понятно, что Q* рассматривался как значительный прорыв в развитии компании.

Во время тестирования Q* удалось решить математические задачи без какой-либо предварительной подготовки. Хотя он мог решать математические вопросы только на уровне средней школы, исследователи были впечатлены. Между тем, другие выразили обеспокоенность по поводу потенциальных применений модели.

Фактически, некоторые сотрудники OpenAI уведомили правление об обнаружении Q*. Несмотря на его впечатляющие характеристики на момент испытаний, сотрудники опасались этого нового ИИИ, который, по их мнению, мог представлять собой огромную угрозу для человечества.

Read more:  Может ли это стать переломным моментом для Украины?

Альтман работал над множеством функций, не особо беспокоясь о последствиях. Он также признался, что несколько раз приоткрыл завесу невежества во время работы в OpenAI.

Поэтому правление OpenAI опасалось, что Альтман выпустит Q*, не проверив и не минимизировав его негативные последствия. Согласно источнику, исследователи сообщили совету директоров, что AGI может решить уничтожить человечество в будущем.

Напомним, что ChatGPT начал проявлять свои негативные последствия всего через год после запуска. А новое исследование предполагает, что инструменты, подобные ChatGPT, могут помочь хакерам проводить кибератаки.

Q* от OpenAI может усугубить ситуацию, если будет выпущен без учета всех возможных результатов. Вероятно, это заставило совет директоров OpenAI пересмотреть руководство Альтмана и уволить его.

Однако OpenAI пока не подтвердила и не опровергла эти предположения. На данный момент Альтман вернулся в OpenAI в качестве генерального директора. Теперь, когда он вернулся, компания может официально подтвердить наличие модели AGI в ближайшие дни.

2023-11-24 05:45:07


1700882140
#OpenAI #уволила #Сэма #Альтмана #чтобы #помешать #ему #выпустить #опасную #для #человека #модель #искусственного #интеллекта #отчет

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.