Столетие
ПОИСК НА САЙТЕ
3 мая 2024
Илон Маск и более 1000 экспертов в сфере ИИ потребовали приостановить обучение нейросетей

Илон Маск и более 1000 экспертов в сфере ИИ потребовали приостановить обучение нейросетей

29.03.2023
Илон Маск и более 1000 экспертов в сфере ИИ потребовали приостановить обучение нейросетей

Глава SpaceX и Tesla Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг, сооснователь Pinterest Эван Шарп и ещё более 1 000 экспертов в области высоких технологий и искусственного интеллекта (ИИ), в том числе из DeepMind, Гарварда, Оксфорда и Кембриджа, потребовали немедленно приостановить обучение систем на основе ИИ, «более мощных, чем GPT-4» от OpenAI – самой популярной и продвинутой на сегодняшний день нейросети такого характера. Об этом говорится в открытом письме на сайте некоммерческой организации Future of Life.

Авторы указали на риски для человечества из-за дальнейшего развития систем ИИ с «человеко-конкурентным интеллектом».

«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ, более мощных, чем GPT-4. Об этом перерыве необходимо объявить публично, его исполнение должны быть проверяемым и охватывать всех ключевых участников отрасли. Если такая пауза не может быть сделана в кратчайшие сроки, то правительства должны вмешаться и ввести мораторий», – говорится в документе.

Эксперты считают, что ИИ несёт серьёзные риски для общества и человечества.

«Мощные системы искусственного интеллекта следует разрабатывать только в том случае, когда мы уверены, что их эффекты будут положительными, а их риски – управляемыми», – подчеркнули они.

В письме описаны потенциальные риски для общества и цивилизации со стороны «слишком умных» систем ИИ в виде экономических и политических потрясений.

«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий», – указали авторы письма.

Отмечается, что сейчас необходимый контроль не обеспечивается и лаборатории пытаются обогнать друг друга, разрабатывая всё более мощные системы, чьё поведение не могут предсказать даже создатели.

За те полгода, на которые будет взята пауза, эксперты предлагают совместно с властями государств разработать общие протоколы безопасности, сформировать новые компетентные регулирующие органы, надёжную систему проверки и сертификации, придумать системы отличий в продуктах, созданных человеком и искусственным интеллектом и т.д.

Пресс-секретарь президента РФ Дмитрий Песков, комментируя ситуацию, отметил: «Работа должна продолжаться, это путь развития человечества». Но, по его словам, по мере того, как ИИ будет расширять своё присутствие в экономике, в повседневной жизни людей, там обязательно потребуется регулирование.

Американская компания OpenAI представила в середине марта новое поколение алгоритма по обработке естественного языка – мультимодальную модель GPT-4, которая, как утверждают её авторы, намного превосходит предыдущую версию GPT-3.5. Так, GPT-4 наделена большей «креативностью» и более надёжна в использовании, она умеет обрабатывать более детализированные запросы. По внутренним оценкам фактичности, или достоверности, она превосходит GPT-3.5 на 40%. Как пример компания приводит тест на адвоката – симулятор, по которому оценивались обе нейросети. Результаты теста GPT-4 оказались примерно в 10% лучших, а GPT-3.5 – в 10% худших. 

Ранее сегодня бельгийское издание L'Avenir сообщило, что гражданин королевства покончил с собой после двух месяцев общения с ИИ, в ходе которого виртуальный собеседник не препятствовал суицидальным мыслям человека.

Вдова скончавшегося рассказала, что её супруг в последние годы интересовался вопросами защиты окружающей среды и со временем стал зацикливаться на этой теме вплоть до повышенной тревожности от мысли о неизбежности экологической катастрофы. Считая, что единственным спасением для человечества являются технологии и ИИ, он сам начал общаться с искусственным персонажем, предназначенным для беседы по аналогии с популярным чат-ботом ChatGPT.

Как показала восстановленная в ходе расследования происшествия переписка мужчины и искусственного персонажа «Элиза», последние недели перед гибелью он постоянно общался с компьютером, при этом разговоры приобретали мистический характер, и Пьер начал склоняться к идее самоубийства. Искусственный собеседник при этом не только не препятствовал суицидальным мыслям человека, но даже подталкивал его в этом направлении. Так, например, последним сообщением робота стала фраза: «Мы будем жить как единое целое, вечно на небесах».

По материалам Future of Life, ТАСС, РИА Новости, НТВ, Газеты.ру, RT,  L'Avenir



Эксклюзив
02.05.2024
Людмила Чумаченко
Записки одесситки
Фоторепортаж
02.05.2024
Подготовила Мария Максимова
В Парке Победы на Поклонной горе проходит демонстрация трофейной западной техники


* Экстремистские и террористические организации, запрещенные в Российской Федерации.
Перечень организаций и физических лиц, в отношении которых имеются сведения об их причастности к экстремистской деятельности или терроризму: весь список.

** Организации и граждане, признанные Минюстом РФ иноагентами.
Реестр иностранных агентов: весь список.