Декількома словами
Згідно зі звітом Агентства ЄС з фундаментальних прав, штучний інтелект становить значні ризики для основних прав, таких як право на притулок, освіту та працю в Європі, а чинні європейські норми недостатньо захищають громадян. Багато розробників ШІ не знають, як систематично оцінювати та зменшувати ці ризики.
Звіт Агентства Європейського Союзу з фундаментальних прав (FRA) виявив, що системи штучного інтелекту (ШІ) можуть підірвати ключові фундаментальні права в Європі, включаючи права, пов'язані з притулком, освітою та працею. Висновки, нещодавно опубліковані, частково суперечать зусиллям Європейської Комісії щодо сприяння швидкій адаптації інструментів ШІ "високого ризику" до нових нормативних актів.
Звіт FRA вказує на те, що нинішні механізми контролю є недостатніми для гарантування дотримання фундаментальних прав. Агентство проаналізувало вплив ШІ у п'яти ключових сферах: притулок, освіта, ринок праці, правозастосування та соціальні виплати.
Серед розглянутих випадків — використання ШІ у процесах подання заяв на роботу, зокрема інструментів, що фільтрують та оцінюють резюме. Також були проаналізовані автоматичні механізми для визначення права на отримання допомоги по інвалідності, а також інструменти для нагляду за іспитами або вимірювання навичок читання у дітей. "Ці системи повинні бути надійними, оскільки вони можуть формувати важливі рішення, що впливають на повсякденне життя людей", — зазначається у звіті.
Агентство дійшло висновку, що, хоча постачальники таких систем усвідомлюють проблеми, які можуть виникнути у сфері захисту даних або гендерної дискримінації, вони не враховують належним чином ризик порушення фундаментальних прав. Наприклад, інструменти, що оцінюють навички читання у дітей, не аналізують, як їхній вердикт може вплинути на право дитини на освіту.
Закон про ШІ, який набуде чинності з серпня 2024 року, класифікує системи штучного інтелекту залежно від ризиків, які вони несуть для громадян, і встановлює для них різні зобов'язання та вимоги. Системи "нульового ризику", такі як спам-фільтри, не мають обмежень, тоді як системи "неприйнятного ризику" (наприклад, ті, що експлуатують людські вразливості або виводять емоції, расу чи політичні погляди) безпосередньо заборонені.
До додатків "високого ризику", що вимагають постійного нагляду, належать системи віддаленої біометричної ідентифікації, системи біометричної категоризації, ті, що впливають на безпеку критично важливих інфраструктур, а також пов'язані з освітою, працевлаштуванням, основними державними послугами, правозастосуванням або управлінням міграцією.
Галузь стикається зі значною дезорієнтацією. Європейська Комісія вирішила відкласти початок нагляду за цими системами на 16 місяців, аргументуючи це тим, що стандарти щодо того, що є і що не є прийнятним при використанні цих інструментів, ще не опубліковані. Звіт FRA, заснований на інтерв'ю з постачальниками, операторами та експертами, показує, що "багато з тих, хто розробляє, продає або використовує системи ШІ високого ризику, не знають, як систематично оцінювати або зменшувати ризики", які ці інструменти тягнуть за собою для фундаментальних прав. Агентство вважає, що саморегуляція є актуальною, але "не систематично враховує фундаментальні права".