Home » Ужасное развитие искусственного интеллекта, похоже, стало причиной увольнения Сэма Альтмана.

Ужасное развитие искусственного интеллекта, похоже, стало причиной увольнения Сэма Альтмана.

Прошла почти неделя с момента Совет директоров OpenAI уволила генерального директора Сэма Альтмана, не объяснив своих действий. Однако во вторник правление восстановило Альтмана в должности и назначило новый совет для надзора за деятельностью OpenAI. Он также пообещал провести расследование произошедшего, поскольку речь идет о компании, ведущей разработки искусственного интеллекта.

За короткий промежуток времени между отъездом и возвращением Альтмана появилось множество теорий, причем некоторые полагают, что OpenAI разработала невероятно мощная модель GPT-5. Или что OpenAI достиг AGI, общего ИИ, который мог функционировать так же, как люди, и поэтому совет просто делал свою работу, защищая мир от безответственной разработки ИИ.

Похоже, предположения не далеки от реальности, но это, конечно, не означает, что нам действительно грозит опасность со стороны Искусственного Интеллекта, по крайней мере, на современном этапе. Однако в новом отчете отмечается, что OpenAI добилась огромного прогресса за несколько дней до увольнения Альтмана. Это новый алгоритм Q* ή Q-Star это может угрожать человечеству, говорится в письме, анонимно отправленном Совету директоров исследователями OpenAI.

По данным агентства Reuters, которое не ознакомилось с письмом, этот документ стал одним из факторов, приведших к временному отстранению Альтмана. Совет директоров был обеспокоен быстрыми темпами коммерциализации разработок ChatGPT, прежде чем последствия были поняты. OpenAI отказалась отвечать агентству Reuters, но компания признала существование Q-Star в служебной записке для сотрудников и письме совету директоров. Мира Мурати, которая была первым временным генеральным директором, назначенным советом директоров после отставки Альтмана, похоже, предупредила персонал о предстоящих событиях в Q-Star.

Пока слишком рано говорить о том, является ли Q-Star AGI, а OpenAI больше озабочена драмой генерального директора, чем публичными заявлениями. И компания, возможно, не захочет так скоро анонсировать такое нововведение, особенно если оно требует большего внимания.

Read more:  Sony утверждает, что Battlefield от EA не может сравниться с Call of Duty

Что может Q-Star

Рейтер сообщает, что Q-Star смог сделать то, что производительный ИИ не может сделать надежно, а именно решить математические задачи.:

Учитывая огромные вычислительные ресурсы, новая модель смогла решить некоторые математические задачи, сообщил сотрудник OpenAI на условиях анонимности, поскольку он не уполномочен говорить от имени компании. Хотя он справлялся с математикой только на уровне учеников начальной школы, его отличные результаты на таких тестах вселили в исследователей большой оптимизм относительно будущего успеха Q*, сообщил источник.

Reuters также сообщает, что исследователи рассматривают математику, в которой правильный только один ответ, как важную веху для продуктивного искусственного интеллекта. Сегодняшние программы хорошо пишут и переводят языки, поскольку они предсказывают следующее слово. В результате ответы на один и тот же запрос могут различаться. Но в математике ответ может быть только один.

Как только математическая наука будет освоена, у ИИ появятся более широкие способности к рассуждению, которые будут больше напоминать человеческий интеллект. После этого искусственный интеллект сможет работать над новыми научными исследованиями.

Чего они боятся в отношении искусственного интеллекта

В письме отмечается потенциальная опасность Q-Star, хотя неясно, в чем заключаются проблемы безопасности. В целом исследователи обеспокоены тем, что появление искусственного интеллекта может также привести к вымиранию человеческого вида. По мере того как ИИ станет более разумным, он может решить, что уничтожение человеческого вида лучше всего послужит его интересам. Это похоже на «Терминатора» и «Матрицу», но исследователи в этой области высказывают опасения.

Reuters также сообщает, что исследователи особо выделили работу новой команды «ученых по искусственному интеллекту»:

Исследователи также указали на работу группы «ученых по искусственному интеллекту», существование которой подтверждено множеством источников. По словам одного из участников, команда, которая была сформирована путем объединения старых команд «Code Gen» и «Math Gen», изучала, как оптимизировать существующие модели ИИ, чтобы улучшить их рассуждения и, в конечном итоге, выполнять научную работу.

Хотя OpenAI еще не подтвердила это нововведение, о котором ходят слухи, Сэм Альтман объявил о важном событии за несколько дней до его отстранения.

Read more:  Как новые правила Китая в области искусственного интеллекта могут повлиять на американские компании

«Четыре раза за всю историю OpenAI, последний раз за последние две недели, у меня была возможность присутствовать в комнате, когда мы каким-то образом отодвигаем завесу невежества и расширяем границы открытий, и сделать это — профессиональная честь. моей жизни— заявил гендиректор на саммите Азиатско-Тихоокеанского экономического сотрудничества. Через день его уволили.

*Центральное изображение взято из Декодер.

[via]

*Следуй за ним Techgear.gr в Новостях Google будет немедленно получать информацию обо всех новых статьях!

2023-11-23 12:43:00


1700746198
#Ужасное #развитие #искусственного #интеллекта #похоже #стало #причиной #увольнения #Сэма #Альтмана

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.