Элон Маск, Возняк и другие специалисты призывают исследовательские центры "приостановить" обучение систем искусственного интеллекта

8 июля 2023
Элон Маск, Возняк и другие специалисты призывают исследовательские центры "приостановить" обучение систем искусственного интеллекта

Должны ли мы развивать нечеловеческий разум, который со временем превзойдет, превзойдет, устареет и заменит нас?" - говорится в открытом письме, подписанном многими учеными и технологическими предпринимателями.

Представляет ли гонка за созданием более мощных ИИ, таких как ChatGPT, опасность для человеческой цивилизации? Группа технологических предпринимателей и ученых, включая Элона Маска и Стива Возняка, считает, что да.

Маск и Возняк подписали открытое письмо, в котором призвали технологическую индустрию затормозить развитие ИИ, ссылаясь на разрушительные последствия, которые эта технология может иметь для общества.

"Мощные системы искусственного интеллекта должны разрабатываться только тогда, когда мы уверены, что их влияние будет положительным, а риски - управляемыми", - говорится в письме, которое также подписали соучредитель Pinterest Эван Шарп, бывший кандидат в президенты США Эндрю Ванг и известный писатель Юваль Ной Харари.

В письме содержится призыв к исследовательским центрам "немедленно приостановить по крайней мере на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4". Последняя крупная языковая модель OpenAI способна генерировать ответы, похожие на человеческие, и выполнять такие задачи, как написание статей и компьютерное кодирование, за считанные секунды.

На GPT-4 уже работает программа ChatGPT от OpenAI, которая вызвала большой резонанс в мире благодаря своей способности оптимизировать и даже автоматизировать некоторые виды работы "белых воротничков". В нем также высказываются опасения, что существующие и будущие программы искусственного интеллекта будут расшатывать общество, отнимая рабочие места у людей и облегчая злоумышленникам распространение дезинформации в Интернете.

В открытом письме говорится, что обществу пора взвесить и оценить возможные последствия, прежде чем еще больше погружаться в гонку ИИ. "Должны ли мы позволить машинам заполнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят удовлетворение?" - спрашивается в письме. "Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть делегированы неизбираемым технологическим лидерам".

Далее в письме содержится призыв к лабораториям искусственного интеллекта не только временно прекратить свои исследования, но и сделать эту паузу "публичной и проверяемой".

"Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий", - добавляется в документе.

Во время паузы лаборатории и независимые эксперты должны объединиться для формирования протоколов безопасности разработки ИИ. Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких сомнений". Это не означает паузу в развитии ИИ в целом, а лишь отказ от опасной гонки за все более крупными непредсказуемыми моделями "черного ящика" с эмерджентными возможностями", - говорится в письме.

Открытое письмо подготовлено Институтом будущего жизни (Future of Life Institute), который занимается вопросами мирного развития технологий, таких как ИИ, без разрушения общества. Письмо, которое может подписать любой желающий, на данный момент собрало 1 123 подписи. Его подписали несколько инженеров из Microsoft и Google.

OpenAI, Microsoft и Google, разрабатывающая свой искусственный интеллект Bard, не сразу ответили на просьбу о комментарии. Однако все три компании заявили, что планируют ответственно подходить к разработке ИИ.

Тем временем некоторые критики утверждают, что в открытом письме преувеличены некоторые риски, связанные с технологиями ИИ, и не рассматриваются более реалистичные сценарии. "Это открытое письмо - иронично, но неудивительно - еще больше подогревает шумиху вокруг ИИ и затрудняет борьбу с реальными, уже имеющими место вредными последствиями ИИ. Я подозреваю, что от этого выиграют компании, которые оно должно регулировать, а не общество", - написал в Твиттере Арвинд Нараянан, профессор информатики из Принстона.

"Конечно, это повлияет на уровень занятости, и мы должны это предусмотреть, но идея о том, что LLM (большие языковые модели) скоро заменят профессионалов, - это нонсенс", - добавил он.

Новости и обзоры

Читать все

Нейросети

смотреть все
Нейросеть Social Content AI - SMM

Social Content AI

Полноценный инструмент для создания контента в социальных сетях на основе искусственного интеллекта (Semrush). Быстрая генерация интересных постов, релевантных вашей аудитории и оптимизированных для каждой социальной платформы

SMM
Нейросеть Hexagen World AI - Игры

Hexagen World AI

Игра-симулятор, в которой вы - Бог. Ваша цель? Управлять миром, состоящим из шестиугольников. Не требует установки: работает через веб-браузер

Игры
Бесплатно
Нейросеть Hunyuan Video - Генерация видео

Hunyuan Video

Модель с 13 миллиардами параметров превращает ваш текст в видео кинематографического качества. Управляйте переходами, движениями и спецэффектами, добиваясь результатов, достойных профессиональных студий

Генерация видео
Бесплатно