Концептуальные инициативы для счастливого будущего страны

Искусственный интеллект необходимо приструнить

Image

Издание The Guardian сообщает, что эксперты в области изучения ИИ нашли в интернете более 3000 сгенерированных нейросетями изображений сексуального насилия над детьми. За основу берутся фото и видео реальных жертв половых преступлений.

Ученые бьют тревогу

Фонд Internet Watch Foundation, на данные которого ссылается The Guardian, считает, что «худшие кошмары организации сбылись». Нейросети достигли такого уровня достоверности производимого контента, что их изображения стали почти неотличимы от настоящих фотографий. А значит, злоумышленникам становится все проще обмануть людей, которые уже не отличают правду от подлога.

Не менее серьезная проблема — риск выхода ИИ из подчинения человечеству. Пентагон в сентябре призвал компании, занимающиеся искусственным интеллектом, больше рассказывать о своих технологиях. «Призыв к осторожности» летом опубликовало издание The Times. Сотни ученых, работающих в сфере искусственного интеллекта, вместе с гендиректорами ведущих лабораторий ИИ выпустили заявление, в котором признались, что напуганы перспективой появления «сверхчеловеческих искусственных "людей" с целями, противоречащими интересам человечества».

Тревогу выразили весной и 1100 профессоров, инженеров и исследователей во главе с Илоном Маском и Стивом Возняком в совместном обращении. Они попросили приостановить эксперименты с ИИ, который мощнее GPT-4. Гонка ИИ привела к тому, что человечество не успевает выпускать протоколы безопасности, соответствующие уроню угроз нейросетей. К манифесту присоединились и российские ученые.

Необходимо урегулировать ИИ на уровне законов, но сделать это крайне сложно

Лидеры всех стран приходят к единому мнению, что бурный рост возможностей искусственного интеллекта необходимо сдерживать за счет юридических правил. Но скорость развития нейросетей настолько огромна, что любые нормы устаревают за считанные недели. Европарламент уже два года готовит масштабный законопроект, который ограничит наиболее опасные функции ИИ и заставит разработчиков делать механизмы работы нейросетей прозрачными. Также ООН предлагает разработать Глобальный цифровой договор и согласовать его на саммите в сентябре 2024 года. К обсуждению приглашаются правительства, бизнесмены и граждане.

Однако пока глобальный проект готовился, нейросети успели совершить несколько качественных скачков и обнулить большую часть наработок парламентариев. С аналогичной проблемой столкнулись и российские законотворцы. Ранее замглавы Минцифры Александр Шойтов сообщал, что в России работают над полноценным законом об искусственном интеллекте. А управляющий директор по IT и цифровой трансформации ДОМ.РФ Николай Козак выразил уверенность, что инициативу примут до конца 2023 года. Однако пока не похоже, что власти успеют доработать закон к дедлайну.

Люди проигрывают гонку со временем?

Пока мировое сообщество пытается купировать все риски ИИ в одном законе, искусственный интеллект продолжает экспансию. В России уже почти половина (45%) предпринимателей применяли ИИ в работе, а 65% компаний делают это в экспериментальном режиме. Нейросети научились определять диабет по голосу, вести военные действия, находить преступников в толпе, работать с электоратом. Особенно активно искусственный интеллект в политике использовали в Турции на президентских выборах, причем для самых грязных целей.

Остается очень много юридических сфер, которые необходимо адаптировать под нейросети: вопросы авторского права, обезличивание контента, использование нейросетей в науке, спорте и т.д. Россия уже начала делать шаги в этом направлении, но необходимо ускориться. Искусственный интеллект активно используется для мошенничества, обхода законов, создания дипфейков, а правовой базы страны не хватает, чтобы отвечать злоумышленникам.