Home » Может ли существовать этическое наблюдение за ИИ? Исследователь данных Румман Чоудхури так не думает

Может ли существовать этическое наблюдение за ИИ? Исследователь данных Румман Чоудхури так не думает

Румман Чоудхури, бывший директор по этике, прозрачности и подотчетности машинного обучения в Twitter, заявила на недавней беседе, что не верит этическое наблюдение за искусственным интеллектом может существовать.

«Мы не можем накрасить губы помадой свиньи», — отметил специалист по данным из Школы социальных наук Нью-Йоркского университета. «Я не думаю, что этическое наблюдение может существовать».

В интервью, опубликованном в понедельник в The Guardian, в котором подчеркивается это заявление, Чоудхури предупредила, что рост капитализма наблюдения очень беспокоит ее.

Она утверждала, что это использование технологии это, по своей сути, является недвусмысленно расистским и, как таковое, не должно приниматься во внимание.

«КРЕСТНЫЙ ОТЕЦ ИИ» ГОВОРИТ, ЧТО ЕСТЬ «СЕРЬЕЗНАЯ ОПАСНОСТЬ» ТЕХНОЛОГИЯ СТАНЕТ УМНЕЕ ЧЕЛОВЕКА СКОРО

Румман Чоудхури, соучредитель Humane Intelligence, некоммерческой организации, разрабатывающей подотчетные системы искусственного интеллекта, позирует фотографу у себя дома в понедельник, 8 мая 2023 года, в Кэти, штат Техас. (AP Photo/Дэвид Дж. Филлип)

В недавней статье для Wired, на которую ссылается статья, Чоудхури также сказал, что только внешний совет людям можно доверять управление ИИ.

«Мы привлекаем к себе все это внимание средств массовой информации, — сказала она The Guardian, — и все спрашивают: «Кто здесь главный?» А потом мы все как бы смотрим друг на друга и такие: «Гм. Все?»

В интервью она посетовала на то, что она называет «моральным аутсорсингом», или перераспределением ответственности за то, что встроено в сами продукты.

Ее подход к регулированию заключается в том, что должны существовать «механизмы подотчетности», и она говорит, что отсутствие подотчетности является проблемой.

Румман Чоудхури использует компьютер

Румман Чоудхури, соучредитель Humane Intelligence, некоммерческой организации, разрабатывающей подотчетные системы искусственного интеллекта, работает за своим компьютером в понедельник, 8 мая 2023 года, в Кэти, штат Техас. (AP Photo/Дэвид Дж. Филлип)

Read more:  Мужчина, получивший ножевое ранение в центре города Корк, скончался в больнице - Cork Beo

«Есть просто риск, а затем ваша готовность пойти на этот риск», — объяснила она, заявив, что, когда риск неудачи становится слишком большим, он переходит на арену, где правила изгибаются в определенном направлении.

ГЕНЕРАЛЬНЫЙ ДИРЕКТОР OPENAI АЛЬТМАН ОТКАЗЫВАЕТСЯ ПОСЛЕ УГРОЗЫ УЙТИ ИЗ ЕВРОПЫ ИЗ-ЗА ЧРЕЗМЕРНОГО РЕГУЛИРОВАНИЯ

«В мире очень мало хороших или плохих актеров, — продолжила она. «Люди просто работают на стимулирующих структурах».

Ответственный научный сотрудник Гарвардского университета по искусственному интеллекту сказала, что она стремилась преодолеть разрыв в понимании между технологами, которые «не всегда понимают людей, и людей [who] не всегда разбираюсь в технологиях».

«В основе технологий лежит идея о том, что человечество несовершенно и что технологии могут нас спасти», — сказала она.

Сэм Альтман стоит

Сэм Альтман, генеральный директор и соучредитель OpenAI, выступает на мероприятии в штаб-квартире Microsoft в Редмонде, штат Вашингтон, во вторник, 7 февраля 2023 г. (Чона Касингер/Блумберг через Getty Images)

Примечательно, что Чоудхури работает над мероприятием с участием красных команд, во время которого хакерам и программистам предлагается попытаться ограничить меры безопасности и заставить технологии делать плохие вещи для Def Con, который представляет собой съезд, организованный хакерской организацией AI Village. «Хакатон» поддерживается лидерами отрасли, включая OpenAI, Google и Microsoft, и администрация Байдена.

НАЖМИТЕ ЗДЕСЬ, ЧТОБЫ ПОЛУЧИТЬ ПРИЛОЖЕНИЕ FOX NEWS

Она сказала, что, по ее мнению, только благодаря таким коллективным усилиям может произойти надлежащее регулирование и обеспечение соблюдения, хотя и предупредила, что чрезмерное регулирование может привести к чрезмерной корректировке моделей.

В сообщении говорится, что Чоудхури добавил, что нелегко определить, что является токсичным или ненавистным.

«Это путешествие никогда не закончится», — сказала она. «Но я в порядке с этим».

Read more:  Эти модели iPhone вы скоро больше не сможете покупать, Apple навсегда изымает их из своих магазинов.

2023-05-29 16:32:40


1685378770
#Может #ли #существовать #этическое #наблюдение #за #ИИ #Исследователь #данных #Румман #Чоудхури #так #не #думает

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.