Оригинал материала: https://3dnews.kz/1086568

Евродепутаты поддержали более 3000 поправок к «Закону об ИИ» — под запрет попали навязчивые ИИ

В ходе серии голосований депутаты Европарламента поддержали ряд поправок к проекту «Закона об искусственном интеллекте» и согласовали перечень требований для так называемых основополагающих моделей, которые лежат в основе передовых систем искусственного интеллекта, таких как ChatGPT — в общей сложности они приняли более 3000 поправок.

 Источник изображения: NoName_13 / pixabay.com

Источник изображения: NoName_13 / pixabay.com

Документ обязывает разработчиков этих моделей проводить до их вывода на рынок экспертизу безопасности, механизмов управления данными и снижения «рисков для здоровья, безопасности, базовых прав, окружающей среде, демократии и верховенству права». Разработчики обязываются снижать энергопотребление и использование ресурсов системами, а сами системы подлежат регистрации в специальной базе, которая будет создана в соответствии с «Законом об ИИ».

При работе систем ИИ их разработчикам надлежит обеспечивать прозрачность, в частности, маркировать контент как созданный машиной; применять «адекватные меры безопасности» в отношении этого контента; раскрывать информацию об использованных при обучении ИИ материалов, защищённых авторским правом.

Важнейшим направлением стало ограничение работы биометрических систем на базе ИИ. Под запрет попали механизмы «навязчивых» и «дискриминационных» биометрических ИИ-систем:

  • системы удалённой биометрической идентификации «реального времени» в общественных местах;
  • системы удалённой биометрической идентификации «отложенного действия» — за исключением систем правоохранительных органов в целях уголовного преследования за тяжкие преступления и только с судебной санкции;
  • системы биометрический классификации с использованием ключевых характеристик (пол, раса, этническая принадлежность, статус гражданства, религия, политические убеждения);
  • прогностические полицейские системы (на основе создания профилей, анализа местоположения и совершенных в прошлом преступлений);
  • системы распознавания эмоций в правоохранительных органах, пограничных службах, на рабочих местах и в учебных заведениях;
  • неизбирательный сбор биометрических данных в соцсетях или с камер видеонаблюдения — нарушает право на неприкосновенность частной жизни.
 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Парламентарии расширили классификацию «зон высокого риска» для здоровья, безопасности, для основных прав человека и для окружающей среды — в эту категорию вошли платформы ИИ, используемые в политических кампаниях, а также рекомендательные алгоритмы крупных соцсетей. В общем случае решение о причислении системы к группе высокого риска её разработчики принимают самостоятельно.

Расширены права граждан в отношении подачи жалоб на системы ИИ, а также на получение разъяснений решений, основанных на системах ИИ высокого риска, если такие решения оказывают «значительное» влияние на их права.

При этом для поддержания инноваций в отрасли были сделаны исключения для исследовательских проектов в сфере ИИ, а также проектов, которые становятся общедоступными по лицензии с открытым исходным кодом.



Оригинал материала: https://3dnews.kz/1086568