Home » Человека проще простить, чем робота

Человека проще простить, чем робота

Одна из причин, по которой я думаю, что ИИ будет трудно брать на себя все наши обязанности по вождению, медицинскому обслуживанию или даже просто по взаимодействию со службой поддержки клиентов, заключается в том, что роботу недостаточно быть таким же хорошим, как человек. Они должны хорошо владеть компьютером. То есть практически идеально. Это жесткая планка для масштабирования.

Давайте на минутку займёмся машинами. Ежегодно в США в автокатастрофах погибают десятки тысяч человек. Если быть точным, то в 2022 году их было 42 795. Аргумент в пользу беспилотных автомобилей заключается в том, что если бы вы могли улучшить этот показатель хотя бы на 25%, вы бы спасли 10 000 жизней. Это звучит невероятно! Но это также своего рода математика эффективного альтруизма, которая просто не работает. Реальный мир.

Потому что, скажем так, вы Тесла. И вдруг половина всех жителей Америки ездит на одном из ваших роботов-автомобилей. Ваша технология самостоятельного вождения очень продвинута. На 50% лучше, чем люди! Это возлагает на вас ответственность за 10 000 смертей в год. Икс! Ладно, допустим, ты ещё на порядок лучше, это всё равно 1000 смертей. Два заказа? 100 смертей. В год.

Математика проста, человеческий фактор сложен, а юридические последствия, возможно, невозможны.

Медицинская точка зрения еще более неприятна. Я не сомневаюсь, что ИИ быстро станет лучше диагностировать большинство заболеваний, чем средний врач-терапевт. Возможно, это уже так. Но это по-прежнему будет означать множество ошибочных диагнозов, потому что человеческие врачи все время ошибаются. Иски о врачебной халатности являются одним из ключевых факторов, влияющих на расходы на здравоохранение за счет страховых ставок и сумм расчетов.

Read more:  Инфляция во Франции начинает снижаться, но может сопротивляться немного больше, чем где-либо еще

Сколько пациентов с ошибочным диагнозом сможет обработать искусственный интеллект здравоохранения, прежде чем судебные иски о врачебной халатности погубят бизнес? Дюжина? Сотня?

Что приводит нас к самому низкому уровню критичности из этих трех примеров: Обслуживание клиентов. Мы поигрались с несколькими системами в этой области в 37signals, и было здорово видеть, как ИИ во многих случаях с апломбом справляется даже с трудными случаями. Но он также дал кучу неправильных ответов. Иногда очень неправильно.

Какова допустимая частота ошибок, когда робот рассказывает вашим клиентам какую-то ерунду о вашем продукте? Это может настолько расстроить их, что они посоветуют еще 10 людям никогда больше не пробовать ваш продукт? Я не знаю! Но это, наверное, не 5%. Возможно, это даже не 1%. Возможно, роботу службы поддержки клиентов действительно нужно достичь уровня ошибок 0,01%, прежде чем он сможет победить человека, который ошибается в 100 раз чаще (1%), прежде чем психология уравнения сработает.

Я нахожу это увлекательным. Что мы, люди, можем рассмотреть две ситуации, когда ответ А явно лучше, чем ответ Б, по множеству объективных показателей, и тогда мы все равно выберем вариант Б, потому что это психологически совместим с нашей психической конституцией.

Возможно, это всего лишь этап. Возможно, как только ИИ получит достаточно широкое распространение, мы научимся любить наших роботов-помощников и начнем проявлять к ним некоторое подобие симпатии, как к их человеческим коллегам.

Но, возможно, и нет. Может быть, люди, склонные к ошибкам, имеют неотъемлемое преимущество перед ИИ, поскольку их можно простить? Посмотрим.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.