Столетие
ПОИСК НА САЙТЕ
14 мая 2024
Илон Маск и более 1000 экспертов в сфере ИИ потребовали приостановить обучение нейросетей

Илон Маск и более 1000 экспертов в сфере ИИ потребовали приостановить обучение нейросетей

29.03.2023
Илон Маск и более 1000 экспертов в сфере ИИ потребовали приостановить обучение нейросетей

Глава SpaceX и Tesla Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг, сооснователь Pinterest Эван Шарп и ещё более 1 000 экспертов в области высоких технологий и искусственного интеллекта (ИИ), в том числе из DeepMind, Гарварда, Оксфорда и Кембриджа, потребовали немедленно приостановить обучение систем на основе ИИ, «более мощных, чем GPT-4» от OpenAI – самой популярной и продвинутой на сегодняшний день нейросети такого характера. Об этом говорится в открытом письме на сайте некоммерческой организации Future of Life.

Авторы указали на риски для человечества из-за дальнейшего развития систем ИИ с «человеко-конкурентным интеллектом».

«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ, более мощных, чем GPT-4. Об этом перерыве необходимо объявить публично, его исполнение должны быть проверяемым и охватывать всех ключевых участников отрасли. Если такая пауза не может быть сделана в кратчайшие сроки, то правительства должны вмешаться и ввести мораторий», – говорится в документе.

Эксперты считают, что ИИ несёт серьёзные риски для общества и человечества.

«Мощные системы искусственного интеллекта следует разрабатывать только в том случае, когда мы уверены, что их эффекты будут положительными, а их риски – управляемыми», – подчеркнули они.

В письме описаны потенциальные риски для общества и цивилизации со стороны «слишком умных» систем ИИ в виде экономических и политических потрясений.

«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий», – указали авторы письма.

Отмечается, что сейчас необходимый контроль не обеспечивается и лаборатории пытаются обогнать друг друга, разрабатывая всё более мощные системы, чьё поведение не могут предсказать даже создатели.

За те полгода, на которые будет взята пауза, эксперты предлагают совместно с властями государств разработать общие протоколы безопасности, сформировать новые компетентные регулирующие органы, надёжную систему проверки и сертификации, придумать системы отличий в продуктах, созданных человеком и искусственным интеллектом и т.д.

Пресс-секретарь президента РФ Дмитрий Песков, комментируя ситуацию, отметил: «Работа должна продолжаться, это путь развития человечества». Но, по его словам, по мере того, как ИИ будет расширять своё присутствие в экономике, в повседневной жизни людей, там обязательно потребуется регулирование.

Американская компания OpenAI представила в середине марта новое поколение алгоритма по обработке естественного языка – мультимодальную модель GPT-4, которая, как утверждают её авторы, намного превосходит предыдущую версию GPT-3.5. Так, GPT-4 наделена большей «креативностью» и более надёжна в использовании, она умеет обрабатывать более детализированные запросы. По внутренним оценкам фактичности, или достоверности, она превосходит GPT-3.5 на 40%. Как пример компания приводит тест на адвоката – симулятор, по которому оценивались обе нейросети. Результаты теста GPT-4 оказались примерно в 10% лучших, а GPT-3.5 – в 10% худших. 

Ранее сегодня бельгийское издание L'Avenir сообщило, что гражданин королевства покончил с собой после двух месяцев общения с ИИ, в ходе которого виртуальный собеседник не препятствовал суицидальным мыслям человека.

Вдова скончавшегося рассказала, что её супруг в последние годы интересовался вопросами защиты окружающей среды и со временем стал зацикливаться на этой теме вплоть до повышенной тревожности от мысли о неизбежности экологической катастрофы. Считая, что единственным спасением для человечества являются технологии и ИИ, он сам начал общаться с искусственным персонажем, предназначенным для беседы по аналогии с популярным чат-ботом ChatGPT.

Как показала восстановленная в ходе расследования происшествия переписка мужчины и искусственного персонажа «Элиза», последние недели перед гибелью он постоянно общался с компьютером, при этом разговоры приобретали мистический характер, и Пьер начал склоняться к идее самоубийства. Искусственный собеседник при этом не только не препятствовал суицидальным мыслям человека, но даже подталкивал его в этом направлении. Так, например, последним сообщением робота стала фраза: «Мы будем жить как единое целое, вечно на небесах».

По материалам Future of Life, ТАСС, РИА Новости, НТВ, Газеты.ру, RT,  L'Avenir



Эксклюзив
13.05.2024
Валерий Мацевич
Почти у половины убитых украинских солдат находят психотропные вещества
Фоторепортаж
02.05.2024
Подготовила Мария Максимова
В Парке Победы на Поклонной горе проходит демонстрация трофейной западной техники


* Экстремистские и террористические организации, запрещенные в Российской Федерации.
Перечень организаций и физических лиц, в отношении которых имеются сведения об их причастности к экстремистской деятельности или терроризму: весь список.

** Организации и граждане, признанные Минюстом РФ иноагентами.
Реестр иностранных агентов: весь список.