Home » Доктор Абеба Бирхане подчеркивает опасность раскрутки генеративного искусственного интеллекта

Доктор Абеба Бирхане подчеркивает опасность раскрутки генеративного искусственного интеллекта

Когда мы приближаемся к годовщине ChatGPT, доктор Абеба Бирхан поговорил с Дженни Дармоди, чтобы обсудить, как нынешние опасности и ограничения генеративного ИИ могут повлиять на наше будущее.

В это время в прошлом году ChatGPT — это термин, который только что вошел в общественный обиход и в течение нескольких недель стал предметом многих дискуссий как в мире технологий, так и за его пределами.

Хотя это была далеко не первая итерация генеративного искусственного интеллекта (технологии, которая использует алгоритмы для генерации изображений, текста и многого другого), ChatGPT, созданный OpenAI, стал тем, что зажгло эту тенденцию совершенно по-новому.

Но по мере роста крупных технологических игроков миллиарды долларов Что касается генеративного искусственного интеллекта, новое объявление, казалось, появлялось почти еженедельно. Появилось бесчисленное количество стартапов в области искусственного интеллекта, обещающих миру, что инструмент за инструментом будет выпущен с большими планами произвести революцию практически во всех отраслях.

Нельзя отрицать, что эта технология мощная – хотя определение силы может различаться в зависимости от того, кого вы спрашиваете – и инструменты могут найти свое применение. Но в потоке новизны и волнений, в сочетании с доступностью, которую обеспечили такие платформы, как ChatGPT, мы должны задаться вопросом, не становимся ли мы жертвой машины рекламы, вместо того, чтобы задавать важные, критические вопросы о том, что эта технология действительно означает для наших будущее общество.

Доктор Абеба Бирхане — учёный-когнитивист, которая носит множество ролей, что делает её экспертом в области искусственного интеллекта. Она является старшим советником по подотчетности в области искусственного интеллекта в Mozilla Foundation, адъюнкт-доцентом Школы компьютерных наук и статистики Тринити-колледжа в Дублине, а совсем недавно она была назначена на должность Консультативный орган ООН по управлению ИИ. Она также была названа Журнал Тайм как один из самых влиятельных людей в области искусственного интеллекта.

Read more:  Прокладывая путь к цифровой трансформации в производстве

В беседе с редактором SiliconRepublic.com Дженни Дармоди Бирхан сказал, что средства массовой информации, освещающие тему генеративного искусственного интеллекта, имеют тенденцию быть «чрезвычайно преувеличенными», когда речь идет о возможностях технологий.

«Вы очень мало слышите о его проблемах, ограничениях и недостатках», — сказала она. «Если мы говорим о самой технологии, то она, как правило, ненадежна, страдает так называемой галлюцинацией… она создает текст, который кажется реальным, но его либо не существует, либо он просто выдуман, поэтому возникают различные подобные проблемы. ».

«Люди с более темным оттенком кожи склонны платить высокую цену за негативные последствия этих систем»

Она добавила, что когда дело доходит до генераторов изображений, таких как DALL-E или Midjourney, они часто могут свести любую идею к элементарным карикатурам на стереотипы, что, в свою очередь, усугубляет эти стереотипы в реальности. «Потому что данные, которым обучаются эти модели [on] поступает из Интернета… и поскольку мы используем такого рода данные без надлежащей детоксикации и надлежащего ухода, модели имеют тенденцию просто кодировать то, что существует в сети, и преувеличивают это».

Хотя об этой технологии легко говорить очень туманно, ее последствия в реальной жизни могут быть чрезвычайно серьезными, и они уже происходят. Когда ИИ, большие языковые модели и алгоритмы, подобные этому, развертываются в таких условиях, как образование, правоохранительные органы и лекарствореальные люди затронуты.

Женщина со светлыми волосами стоит перед полками с книгами с изображениями природы.  Она Мелисса Стери.

Как технологии формируют наши города будущего, по одному зданию за раз

Читать далее “

«Существует долгая история, ряд исследований, показывающих, что системы распознавания лиц работают по-разному в зависимости от оттенка кожи, и эти исследования продолжаются уже около 10 лет», — сказал Бирхане. «Люди с более темным оттенком кожи, как правило, платят высокую цену за негативные последствия этих систем». Лишь один из примеров этого можно найти в правоохранительных органах США, где шесть человек, о которых мы знаем, получили сообщил, что его ложно обвинили преступления после совпадения по распознаванию лиц – все шесть человек чернокожие.

Read more:  Вот как возраст отца влияет на риск заболеваний у его детей

Хотя в технологической части дома происходит много изменений, есть также много изменений и в нормативной сфере. У МЕНЯ ЕСТЬ действие был принят ранее в этом году, за которым последовал указ от президента США Джо Байдена, призванного создать систему защиты ИИ.

Но хотя правительства активно пытаются регулировать развивающийся сектор, Бирхан сказал, что в этой области есть недостаток, когда дело доходит до того, кто на самом деле сидит за столом переговоров. «От Microsoft до OpenAI и Meta вы обнаружите, что, будь то Закон ЕС об искусственном интеллекте или даже саммит по искусственному интеллекту в Великобритании пару недель назад, они действительно погружены в разные сферы деятельности», — сказала она.

«Эти органы формируют проект нормативного регулирования, который разрабатывается, и это должно быть конфликтом интересов. Это все равно, что передать исследования рака табачным компаниям: в их интересах скрыть проблемы».

Но хотя отрасль омрачена корпоративной жадностью, которая может негативно повлиять на роль искусственного интеллекта в нашем будущем, Бирхан подчеркнул возможности, если технология будет использоваться правильно и о ней будет сообщаться.

«В Новой Зеландии есть сообщество маори, где они создают свои собственные речевые технологии без какого-либо внешнего участия. Они собрали свои собственные голосовые данные, пометили свои собственные данные, построили свою собственную систему, создали свой собственный тест для оценки и тестирования модели. И сама цель их речевой технологии заключалась в том, чтобы восстановить свой язык, который умирал из-за британской колонизации, когда их бабушки и дедушки были вынуждены перестать говорить на этом языке», — сказала она.

«Чтобы ИИ можно было использовать во благо, прежде всего, нам нужно перевернуть [the] цель. Мы должны стремиться не к максимизации прибыли, не к сокращению затрат, не к созданию эффективных машин, но целью должно быть служение людям, помощь людям».

Read more:  С 95-летием, доктор Кинг, и пусть наше сегодняшнее общение отражает Божью любовь ко всем нам.

10 вещей, которые вам нужно знать, прямо на ваш почтовый ящик каждый будний день. Зарегистрируйтесь на Ежедневный обзордайджест важнейших научно-технических новостей Кремниевой Республики.

2023-12-05 16:19:37


1701795099
#Доктор #Абеба #Бирхане #подчеркивает #опасность #раскрутки #генеративного #искусственного #интеллекта

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.