Столетие
ПОИСК НА САЙТЕ
20 мая 2025
Искусственный интеллект берут под глобальный контроль

Искусственный интеллект берут под глобальный контроль

30.10.2023
Искусственный интеллект берут под глобальный контроль

Страны «Большой семёрки» на саммите в Хиросиме согласовали общие принципы, которым должны следовать разработчики искусственного интеллекта (ИИ). 11 положений представляют собой не детальные указания компаниям или организациям, а скорее являются обозначениями основных проблем и рисков – с предложениями о том, как можно их избежать или минимизировать.

«Мы, лидеры G7, подчёркиваем инновационные возможности и потенциал продвинутых систем ИИ. <...> Мы также признаём необходимость управления рисками и защиты отдельных лиц, общества и наших общих принципов, включая верховенство права и демократические ценности», – говорится в совместном заявлении лидеров.

Среди принципов, которые согласовали члены G7 и которых они призывают придерживаться разработчиков ИИ, содержится призыв разработать и внедрить механизмы удостоверения контента и установления его происхождения в случаях, где «это технически возможно» в том числе путем использования водяных знаков и «других методов, позволяющих пользователям идентифицировать контент, созданный ИИ».

Кроме того, создателей ИИ призывают принимать меры для выявления и снижения рисков на протяжении всех этапов разработки, выявлять и устранять уязвимости, а также «инциденты и модели неправильного использования». Разработчики, по мнению G7, должны открыто сообщить о возможностях, ограничениях и областях передовых систем ИИ, а также о сферах их «надлежащего и ненадлежащего применения», для обеспечения прозрачности их использования. Компании призывают работать над «ответственным обменом данными об инцидентах», в том числе с правительством, гражданским обществом и научными кругами.

Разработчики ИИ, как отмечается, должны инвестировать в создание систем контроля безопасности, отдавать приоритет изучению способов снижения «социальных рисков и рисков для безопасности», а также методов смягчения последствий таких рисков. Кроме того, их призывают уделять внимание разработке систем ИИ «для решения крупнейших мировых проблем, в частности климатического кризиса», а также в области здравоохранения и образования.

В заключение страны «Большой семёрки» призывают разработчиков содействовать созданию и принятию международных технических стандартов, а также внедрить меры защиты персональных данных и интеллектуальной собственности. 

Еврокомиссия приветствовала выработку принципов по ответственному и безопасному развитию ИИ, заявив, что по своему духу они соответствуют видению самого ЕС в этой области. Председатель ЕК Урсула фон дер Ляйен отметила, что «потенциальные преимущества ИИ для граждан и экономики являются огромными». «Однако ускорение возможностей ИИ также несёт определённые вызовы. Евросоюз уже находится в авангарде разработки регулирующих норм в области ИИ, внося свой вклад в общемировой процесс. Мы рады приветствовать "Международные руководящие принципы G7 в области ИИ", которые отражают и позицию ЕС по ответственному отношению к развитию ИИ», – сказала она.


По материалам ТАСС, «Ъ», сайта ЕК



Материалы по теме:

Эксклюзив
16.05.2025
Андрей Офицеров
Президент Франции Макрон угрожает России ядерным оружием
К Дню Победы (1941-1945)
20.05.2025
Станислав Минаков
Великая Отечественная — в партизанских рукописях из семейных архивов
Фоторепортаж
16.05.2025
Подготовила Мария Максимова
В Зарядье открылась масштабная экспозиция Студии военных художников имени М.Б. Грекова




* Организации и граждане, признанные Минюстом РФ иноагентами.
Реестр иностранных агентов: весь список.

** Экстремистские и террористические организации, запрещенные в Российской Федерации.
Перечень организаций и физических лиц, в отношении которых имеются сведения об их причастности к экстремистской деятельности или терроризму: весь список.