Закон запроваджує стандарти поведінки для виробників технологій штучного інтелекту, таких як OpenAI, а також регулює соціальні мережі та пошукові системи.
Про це пише Guardian.
В основі документу — багаторівнева система, яка базується на оцінці ризиків, найвищий — у тих технологій ШІ, які становлять ризик для здоров’я, безпеки та прав людини.
Категорія найвищого ризику визначається кількістю комп’ютерних операцій, необхідних для навчання моделі, відомих як “операції з плаваючою комою за секунду”. Наразі під це визначення підпадає лише модель GPT4 від OpenAI.
Нижчій рівень регулювання передбачає значні зобов’язання для компаній-розробниць ШІ, включно з вимогами щодо розкриття даних, використаних для навчання моделей будь-якого рівня.
Закон також забороняє використання технологій ШІ поліцією, роботодавцями чи закладами торгівлі для стеження за людьми в реальному часі, включно з емоційним розпізнаванням. Винятками є ситуації, коли поліція потребує використання інвазивних технологій ШІ через несподівану загрозу теракту, для пошуку жертв торгівлі людьми, розслідування вбивств, зґвалтувань тощо.
Закон також містить винятки для “моделей з відкритим вихідним кодом”, на яких, зокрема, наполягали Франція, Німеччина та Італія.
Закон набуде чинності не раніше 2025 року. Відтоді технологічні компанії будуть змушені ділитися даними з європейськими регуляторами та проводити ретельне тестування технології.
Порушникам загрожуватиме штраф розміром до 7% світового доходу, залежно від типу порушення та розміру компанії.
Аби першим отримувати новини, підпишіться на телеграм-канал ADVOKAT POST.