Home » «В цифровом мире инновации также должны быть связаны с этикой, а иногда это означает сначала запретить, а затем разрешить»

«В цифровом мире инновации также должны быть связаны с этикой, а иногда это означает сначала запретить, а затем разрешить»

Философ и психоаналитик Эльза Годар создала университетскую степень «Этика и цифровые технологии — здоровье» в Университете Париж-Эст-Кретей-Валь-де-Марн (UPEC). Она является научным сотрудником Междисциплинарной лаборатории политических исследований Ханны-Арендт (Университет Гюстава-Эйфеля) и младшим научным сотрудником Лаборатории политической антропологии (EHESS-CNRS). Она написала Этика искренности. Выжить в эпоху лжи (Арман Колин, 2020).

Читайте также: Статья зарезервирована для наших подписчиков Голоса, генерируемые искусственным интеллектом, «юридический вопрос»

Вы хотели бы создать этическую и цифровую хартию. Какая цель?

Это было бы ответом на главную проблему научно-технического развития. В какой-то момент они ускользают от нас, и мы не можем их задержать целиком. Возьмем микро-пример, но весьма показательный для проблемы дипфейки. Некоторые фильтры, доступные в приложении TikTok, которые изменяют внешний вид человека, совершенно незаметны. Это поднимает вопрос о самопостроении, особенно у молодых людей, когда они переживают кризис идентичности подросткового возраста. Такие приложения выпускаются на рынок без предварительных испытаний, без какого-либо одобрения и без какой-либо этической основы, в отличие от научных открытий, которые должны быть одобрены комитетом перед выпуском на рынок.

Что ты посоветуешь?

Должен быть введен стандарт. Регулирование в этих областях абсолютно необходимо. Как только технологическая инновация затрагивает область социального, человеческого, она должна быть рассмотрена комитетом по этике; человек и все, что «человеческое», не должно рассматриваться как объект техники. Мы находимся в своего рода «этический вакуум»как сформулировал немецкий философ Ганс Йонас в своей книге Принцип ответственности [1979]. Он осуждает «апокалиптические возможности, содержащиеся в современных технологиях» как водородная бомба, создавшая прецедент; отныне Человек мог самоуничтожиться. Когда мы находимся в научно-технической среде, которая нам недоступна, у нас больше нет этических средств, чтобы думать о вещах и их будущем, мы должны устанавливать новые принципы, новые правила. Инновация также должна быть этической. А иногда это означает сначала запретить, прежде чем разрешить!

Read more:  Нью-Йорк вернулся в 90-е, а затем снова рухнул

Поднимает ли это также вопрос доверия?

Да и это доверие невозможно, пока мы не освоим объект. Инновации, такие как искусственный интеллект [IA] тестируются, выпускаются для широкой публики и только потом анализируются. Это очень тревожно. Возьмем пример ChatGPT, который волнует толпу. Наверху не было никаких размышлений о влиянии, которое может оказать такой инструмент. Что касается его освоения, то он был доступен и использовался всеми еще до того, как мы его приручили. Не говоря уже о более высокой ступени, к которой мы стремимся, об усилении ИИ, который будет самогенерироваться, и там мы потеряем всякую возможность контроля… Когда ChatGPT продвинется вперед, когда будет точнее, спросит вопрос, зачем думать самим, зачем пытаться писать, когда машина может сделать это как я и даже лучше…

Вам осталось прочитать 22,8% этой статьи. Далее только для подписчиков.

2023-07-09 17:30:07


1688980883
#цифровом #мире #инновации #также #должны #быть #связаны #этикой #иногда #это #означает #сначала #запретить #затем #разрешить

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.