Home » Хильцик: Революция в чате с использованием искусственного интеллекта разрушает закон об авторском праве

Хильцик: Революция в чате с использованием искусственного интеллекта разрушает закон об авторском праве

Я только что обнаружил, что являюсь частью революции в чате с использованием искусственного интеллекта. Пожалуйста, не ненавидь меня.

Моя роль — автор трех из почти 200 000 книг, закачиваемых в электронный мозг LLaMa, чат-бота, разработанного и распространяемого Meta Platforms (ранее Facebook), конкурирующего с более известными ботами ChatGPT, продаваемыми OpenAI.

Алекс Рейснер из Atlantic, составлено удобный инструмент поиска по базе данныхизвестный как Books3, предоставляющий авторам по всему миру возможность искать свои имена и решать, как думать о результатах.

Запретил бы я преподавание (если можно так выразиться) своих рассказов на компьютерах? Даже если бы я мог.

– Стивен Кинг

Я для себя еще не определился — с одной стороны, меня немного раздражает то, что только три из моих семи книг предположительно использовались для «обучения» LLaMa; с другой стороны, я склонен размышлять, чего должен стоить мой вклад и почему мне за него не должны платить?

Реакция других авторов, известных и не очень, была повсеместной. Некоторые выразили убедительное возмущение. В их число входят писатели Джон Гришэм, Джордж Р.Р. Мартин, Скотт Туроу и другие, являющиеся членами Гильдии авторов и истцы в суде. против OpenAI подан иск о нарушении авторских прави Сара Сильверман, истец по аналогичному иску против Мета-платформы.

Некоторые обратились к социальным сетям, чтобы выразить свое раздражение или откровенную ярость, в том числе Маргарет Этвуд и писатель Лорен Грофф.

А еще есть лагерь, который спрашивает: в чем дело? Например, Ян Богост, автор или соавтор 10 книг, в основном об играх, недавно написал статья для Атлантики под названием «Мои книги использовались для обучения генеративного ИИ Меты». Хорошо, он может получить и мой следующий».

Наконец, есть Стивен Кинг, чья реакция на базу данных, в которой перечислены 87 его работ, выглядит неоднозначной. что-то вроде отставки. «Запретил бы я преподавание (если можно так выразиться) своих рассказов на компьютерах?» он написал. «Даже если бы я мог. С таким же успехом я мог бы быть королём Канутом, запрещающим приливу приходить.

Прежде чем углубляться в юридические вопросы, давайте рассмотрим, что означает база данных и ее использование в контексте «генеративного искусственного интеллекта» — категории технологий, к которой принадлежат эти чат-боты.

Как я уже писал, для этих продуктов термин «искусственный интеллект» является неправильным. Они не разумны в том смысле, в каком разумны люди и животные; они просто созданы для того, чтобы казаться разумными постороннему человеку, не знающему об электронных процессах, происходящих внутри.

Действительно, использование самого этого термина искажает наше восприятие того, что они делают. Они не учатся в каком-либо реальном смысле, например, не создают восприятия окружающего мира на основе информации, которая уже имеется в их цепях.

Read more:  Депутат от AAP Санджай Сингх - последний арестованный ED по делу об акцизной политике Дели | Новости Дели

Они не являются творческими в каком-либо отдаленно человеческом смысле: «Творчество не может произойти без разума», — замечает Кинг, хотя он подстраховывает свою ставку, отвечая на свой собственный вопрос о том, являются ли системы творческими, словами: «Не еще».

Разработчики чат-ботов «обучают» свои системы, наполняя их триллионами слов и фраз, присутствующих в Интернете или в специализированных базах данных; когда чат-бот отвечает на ваш вопрос, он вызывает вероятностную последовательность этих входных данных, чтобы создать что-то, имеющее сходство — часто удивительное сходство — с тем, что может создать человек. Но по большей части это симулякр человеческой мысли, а не продукт размышления.

Что радует в раскрытии того, что Books3 использовался для «обучения» LLaMa, так это то, что оно подчеркивает, что все и вся, извергаемое чат-ботами, по своей сути происходит из человеческих источников.

Хотя OpenAI отказывается раскрывать, что она использует для «обучения» ChatGPT, она почти наверняка делает что-то подобное. (Meta официально не признала использование Books3, но роль базы данных было раскрыто в техническом документе от разработчиков LLaMa в компании.

Еще один важный момент, о котором следует помнить, заключается в том, что ни одно из этих тренингов еще не позволило разработчикам решить самую важную и постоянную проблему, связанную с чат-ботами: они делают что-то неправильно, часто очень эффектно.

Когда они не могут найти фактический материал для ответа на вопрос, они склонны выдумывать его или ссылаться на неуместные факты; Сходство ответов с человеческими мыслями и речью вводит пользователей в заблуждение, заставляя их принимать их за чистую монету, что приводит к немалому количеству неприятные и дорогостоящие последствия.

Это обычное явление в области искусственного интеллекта в целом. Совсем недавно, 20 сентября, престижный журнал Nature отозвала статью исследователей Google в нем сообщалось, что системе искусственного интеллекта требуется всего несколько часов для разработки компьютерных чипов, что требует месяцев работы дизайнеров-людей. Сообщается, что автор статьи пришел к выводу, что все было наоборот.

В моем случае печальная правда заключается в том, что, как бы тщательно LLaMa ни «тренировалась» по моим книгам, похоже, она малому научилась. Действительно, его ответы на мои вопросы показали, что это такой же идиот как и его родственники в семействе генеративного ИИ.

Когда я спросил, что оно знает обо мне, его ответ был смесью биобокс, опубликованный на latimes.com, а также упоминание трех книг, ни одна из которых не указана в базе данных Books3: одна написана не мной (хотя я цитируется в сносках) и две, которые, насколько я могу судить, не существуют. совсем. Однако он назвал меня «весьма уважаемым и опытным журналистом, внесшим значительный вклад в сферу журналистики», что говорит о том, что ему не совсем недостает проницательности и здравого смысла.

Read more:  все, что вам нужно знать об этом виде спорта

Когда я попросил LLaMa описать три книги, находящиеся в базе данных Books3, ее ответы были собраны из шаблонного шаблона, который мог появиться из аннотаций на обложках книг, а также из откровенных, даже причудливых ошибок.

Это возвращает нас к проблемам, поднятым в литературном мире. Если реакция известных писателей кажется запутанной, то это главным образом потому, что закон об авторском праве сбивает с толку. Это особенно верно, когда речь идет о «добросовестном использовании». изъятие авторских прав это позволяет использовать части произведений, защищенных авторским правом, без разрешения.

Добросовестное использование — это то, что позволяет цитировать фрагменты опубликованных работ в обзорах, аннотациях, новостных репортажах или исследовательских работах, а также пародировать или перепрофилировать «преобразующим» образом.

Что такое «трансформирующий»? Как говорится в дайджесте Стэнфордских библиотек, «миллионы долларов судебных издержек были потрачены на попытки определить, что квалифицируется… Не существует жестких правилтолько общие рекомендации и различные судебные решения».

Это особенно актуально, когда появляются новые технологии, такие как цифровое воспроизведение или, как сейчас, обучение чат-ботов.

В иске, поданном против OpenAI писателями и Гильдией авторов, утверждается, что OpenAI копировала их произведения «оптом, без разрешения и рассмотрения». [that is, payment]», что представляет собой «систематическое воровство в крупных размерах».

Авторы отмечают, что Патентное ведомство США обнаружило, что «обучение» ИИ… почти по определению включает в себя[s] воспроизведение всего произведения или его существенной части». Они говорят, что «обучение» — это просто «технически звучащий эвфемизм, обозначающий «копирование и усвоение»».

Авторы заявляют, что чат-боты OpenAI «ставят под угрозу способность писателей-фантастов зарабатывать на жизнь», поскольку они «позволяют любому генерировать… тексты, за создание которых в противном случае пришлось бы платить писателям». Боты «могут выдавать производные произведения: материал, который основан на работах истцов, имитирует, излагает или перефразирует их, и наносит им вред рынку».

Это важные утверждения, поскольку вмешательство в рыночную деятельность произведения, защищенного авторским правом, является ключевым фактором, препятствующим защите добросовестного использования в суде.

Стоит отметить, что вторжение ИИ на рынок профессиональных навыков стало ключевым фактором недавней забастовки голливудских писателей и остается таковым для актеров, продолжающих бастовать. Ограничения на использование ИИ являются основным положением контракта, который урегулировал забастовку сценаристов, и обязательно станут частью любого соглашения с актерами.

Read more:  Это самые большие риски

Иск, поданный Сильверман и ее коллегами-истцами против Меты, тесно связан с делом Гильдии авторов. Возможно, не поможет защите Меты тот факт, что Books3 сама по себе является предполагаемым продуктом пиратства; по крайней мере, некоторые из работ в нем взяты из незаконных версий, циркулирующих в сети. Действительно, один из хостов базы данных отключил ее после жалоба от датской антипиратской организации.

Мета, в яОтвет ts на иск Сильвермана, утверждает, что использование Books3 является «преобразующим по своей природе и является квинтэссенцией добросовестного использования». (Ходатайство о прекращении дела должно быть рассмотрено федеральным судьей в Сан-Франциско 16 ноября.) Компания заявляет, что истцы не могут указать на «какой-либо пример» продукции LLaMa, воспроизводящий какую-либо часть их работы. . Это может быть правдой, но решать, имеет ли это отношение к делу, будет судья Винсент Чабрия.

Meta также подразумевает, что оказывает миру услугу, наращивая возможности LLaMa, которые, по ее словам, являются одними из «самых ярких примеров существенных потенциальных преимуществ, которые ИИ может предложить в масштабе миллиардам людей». Если это немного похоже на защиту Meta от обвинений в том, что она нарушила конфиденциальность своих пользователей ради получения прибыли – что она предоставляет информацию только тем, кто сделает мир лучше – это, вероятно, не случайность.

Богост утверждал в The Atlantic, что обучение ботов опубликованным материалам, защищенным авторским правом, не должно требовать разрешения авторов — и что это принципиально не отличается от того, что происходит, когда читатель рекомендует книгу другу или родственнику. «Одним из фактов (и удовольствий) авторства является то, что произведение будет использоваться непредсказуемым образом», — пишет он.

Но в данном контексте это абсурд. Рекомендовать книгу не означает ее копирование. Даже одолжение или дарение книги другому человеку совершенно законно, поскольку в какой-то момент процесса книга была куплено, и некоторая часть покупной цены оказалась в кармане автора.

Здесь дело не в этом. OpenAI и Meta — это коммерческие предприятия, которые рассчитывают заработать на своих чат-ботах. Поскольку они используют материалы, защищенные авторским правом, для создания своих функций, они в чем-то обязаны создателям.

Возможно, теперь я знаю, что думать об использовании моих книг для «обучения» этих машин, особенно если за них никто в цепочке Books3/Meta или OpenAI не платил. Возможно, будет сложно выяснить, какую роль они сыграли в «обучении», но что бы это ни было, оно не должно происходить бесплатно.


2023-10-05 10:00:19


1696517169
#Хильцик #Революция #чате #использованием #искусственного #интеллекта #разрушает #закон #об #авторском #праве

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.