в

Генеративные алгоритмы и сон разума

20 мая 2024
Генеративные алгоритмы и сон разума

Все более широкое использование генеративных алгоритмов поднимает вопрос о том, кто несет ответственность за их галлюцинации (давайте перестанем использовать этот термин), особенно если это приводит к юридическим проблемам.

Макс Шремс, австрийский юрист, который уже усложнил жизнь некоторым американским компаниям в связи с соглашениями об обмене данными между Европой и США, указав на то, что Агентство национальной безопасности не может гарантировать права на частную жизнь, теперь подал в суд на OpenAI за нарушение неприкосновенности частной жизни своих пользователей путем создания ложной информации о людях, что, по признанию OpenAI, не может быть исправлено.

Короче говоря, теперь перед нами стоит вопрос: нарушается ли наша частная жизнь, если кто-то выдумывает что-то о нас? Может ли нарушить нашу приватность тот, кто не имеет о нас никакой информации? Очевидно, что это может быть клевета, как в случае, когда профессор обнаружил , что ChatGPT сказал, что он был обвинен в сексуальных домогательствах, но было ли это нарушением его частной жизни?

Ответ требует некоторых размышлений. ChatGPT, например, женил меня на жене основателя моей компании, а Perplexity, безусловно, озадачил меня, когда сказал, что я познакомился со своей женой через сообщение в Twitter, а также что у меня трое детей, в то время как у меня только одна дочь. Для меня эти ошибки не имеют особого значения, и я использую их в качестве забавных, но что будет, когда вы адвокат, которого наказывают, потому что алгоритм придумал несколько дел, на которых вы основывали свою защиту, например?

Мы все знаем, что генеративные алгоритмы экономят нам время на создание, но увеличивают нагрузку на надзор, и поэтому не выполнять этот надзор - безответственно. Но в конце концов, речь идет о неверной информации, результате ошибочных корреляций, от которых OpenAI просто отмахивается общим предупреждением: "ChatGPT может ошибаться. Проверяйте важную информацию".

Достаточно ли этого? Если инструмент может выдумать потенциально опасную информацию о ком-либо и написать ее в достоверной форме, то, конечно, это подразумевает признание некоторой ответственности? На вопрос "Какую ответственность несет генеративный алгоритм за данные, которые он придумывает о человеке?", ChatGPT отвечает:

Генеративный алгоритм, например, используемый в моделях искусственного интеллекта для создания контента, не несет "ответственности" в человеческом или юридическом смысле, потому что это просто технологический инструмент, которым управляют люди. Однако разработчики и пользователи таких алгоритмов несут этическую и, в некоторых случаях, юридическую ответственность за то, чтобы создаваемый контент не нарушал такие права, как неприкосновенность частной жизни и репутации. Это предполагает принятие мер безопасности и контроля для предотвращения создания ложной или клеветнической информации о людях. Кроме того, крайне важно иметь четкие правила использования и механизмы исправления ошибок, которые могут генерировать алгоритмы.

OpenAI признает, что у нее нет такой политики и механизмов, что выглядит крайне безответственно, и компания говорит, что у нее их нет, потому что на сегодняшний день это технически невыполнимо. С другой стороны, готовы ли мы отказаться от потенциальной продуктивности генеративных алгоритмов из-за того, что они иногда могут предоставлять ложную информацию о людях?

Насколько часто генеративные алгоритмы что-то выдумывают? Довольно часто. Чат-боты "галлюцинируют" гораздо чаще, чем некоторые думают: от 3 до 27 %; цифры, которые предполагают определенную ответственность для тех, кто продвигает этот инструмент.

Сон разума рождает чудовищ. Алгоритмы не видят снов, но они находят корреляции, которые используют для построения якобы безупречных рассуждений, которые на самом деле могут быть опасными, часто затрагивают реальных людей и создают всевозможные проблемы. Должны ли мы требовать, чтобы компании, которые их разрабатывают, взяли на себя часть ответственности?