Home » Они обнаруживают, что ИИ обучен на каталоге тысяч изображений сексуального насилия над несовершеннолетними.

Они обнаруживают, что ИИ обучен на каталоге тысяч изображений сексуального насилия над несовершеннолетними.

Более 3000 изображений сексуальное насилие над детьми Они являются частью каталога LAION-5B, важной базы данных, с помощью которой обучаются инструменты искусственного интеллекта (ИИ), такие как Стабильная диффузия. Это открытие является частью исследования Стэнфордского университета. В частности, именно Стэнфордская интернет-обсерватория работала совместно с Канадским центром защиты детей и другими организациями над выявлением незаконных материалов. После обнаружения они сообщили властям о ссылках на оригинальные фотографии.

ЛАИОН-5Б Это база данных, содержащая более 5 миллиардов изображений, автоматически извлеченных из Интернета. Это «место» в каталоге облегчает ИИ может создавать монтажи детской порнографии, и в то же время отвергает теорию о том, как эти инструменты, как считалось, работали для их производства: сочетание порнографии для взрослых с обычными фотографиями детей. Но эксперты выяснили, что на самом деле это не так. У них уже есть в «мозге» явные примеры злоупотреблений, с помощью которых они могут воссоздавать и производить монтажи.

Немецкая некоммерческая организация LAION, владелец каталога, поясняет на своем веб-сайте, что ее база данных «не курируется» и что «невыбранный характер набора данных» содержащихся в ней ссылок может привести к «неудобному и тревожному контенту».

На данный момент ЛАИОН удалил базу данных, чтобы убедиться, что контент, которым они делятся, «безопасен перед его повторной публикацией». Найденные фотографии сексуального насилия над детьми составляют лишь небольшую часть базы данных LAION-5B, содержащей миллиарды изображений. Американские исследователи объяснили, что они, вероятно, были добавлены непреднамеренно, когда создатели базы данных брали изображения из социальных сетей и других веб-страниц.

Однако, несмотря на небольшую часть данных, обнаружение этого контента демонстрирует текущий недостаток знаний о наборе данных, лежащих в основе самых мощных инструментов искусственного интеллекта. Например, ОпенАИ никогда не указывал, где он получает учебные материалы ChatGPT или остальные инструменты.

Read more:  Чистую энергию теперь официально «не остановить»

Фильтры, позволяющие избежать создания криминального контента

В случае Stable Diffusion его создатель — Stability AI — включает элементы управления и список запрещенных слов для запретить использование движка для создания изображений, показывающих сцены сексуального насилия над несовершеннолетними. В компании также поясняют, что в последних версиях она использовала при обучении только часть изображений из каталога LAION-5B.

 Ее исполнительный директор Эмад Мостак защищался в прошлом году Грань объясняя, что «люди несут ответственность за соблюдение этических, моральных и законных требований при использовании этой технологии». «Плохие вещи, которые создают люди… будут составлять очень, очень небольшой процент от общего числа пользователей», — объяснил он тогда.

Это не первый раз, когда Stability AI сталкивается с противоречиями по поводу того, как он обучает свои инструменты. Компания уже обвинялась в использовании материалов, защищенных авторским правом, для обучения своих моделей.

2023-12-21 11:34:34


1703370553
#Они #обнаруживают #что #ИИ #обучен #на #каталоге #тысяч #изображений #сексуального #насилия #над #несовершеннолетними

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.