Klasifikace umělé inteligence podle míry rizika dle AI Act EU

Evropská unie představila nařízení AI Act, které zavádí klasifikaci systémů umělé inteligence (AI) podle míry rizika. Tato klasifikace je prezentována formou pyramidy, kde jednotlivé úrovně rizika určují pravidla pro použití AI systémů v souladu s legislativou EU:

  • Nepřijatelné riziko: Zakázané systémy.
  • Vysoce rizikové systémy: Povolené za splnění přísných požadavků.
  • Omezené riziko: Povolené za splnění informačních povinností.
  • Minimální riziko: Většina těchto systémů je povolena.


Nepřijatelné riziko

AI systémy zařazené do této kategorie jsou zakázány, protože mohou způsobit vážné škody na zdraví, bezpečnosti nebo lidských právech. Patří sem:

  • Manipulativní techniky: Systémy, které zneužívají podprahové metody nebo manipulativní techniky ke klamání osob.
    Příklad: Donucení uživatele ke koupi nebezpečného produktu.
  • Zneužívání zranitelnosti: AI systémy, které zneužívají věk, zdravotní postižení nebo sociální situaci k škodlivým účelům.
    Příklad: AI aplikace zneužívající děti ke sběru osobních údajů.
  • Sociální kredit: Systémy, které hodnotí jednotlivce nebo skupiny na základě jejich chování a vedou ke znevýhodnění.
    Příklad: Sociální scoring v některých zemích, který omezuje přístup ke službám.
  • Biometrická kategorizace: Používání biometrických dat k odvození rasy, politických názorů nebo jiných citlivých informací.
    Příklad: Rozpoznávání obličejů za účelem sledování politických odpůrců.
  • Biometrická identifikace na dálku: Použití ve veřejných prostorech pro vymáhání práva, kromě specifických situací, jako je hledání pohřešovaných osob.
    Příklad: Automatické sledování osob na ulicích.
  • Predikce kriminality: AI systémy, které hodnotí riziko spáchání trestného činu pouze na základě profilace.
    Příklad: Systémy předpovídající budoucí trestné činy na základě minulého chování.
  • Rozpoznávání emocí: Systémy používané k odvozování emocí na pracovišti nebo ve vzdělávacích institucích, pokud nejsou určeny pro lékařské nebo bezpečnostní účely.
    Příklad: AI sledování emocí studentů během zkoušek.

Vysoce rizikové systémy

Tyto systémy jsou povoleny za splnění přísných požadavků a dohledem příslušných orgánů. Příklady zahrnují:

  • Zaměstnávání: AI pro nábor, hodnocení uchazečů nebo sledování pracovní výkonnosti.
    Příklad: AI systém hodnotí kandidáty na práci podle jejich profilu na sociálních sítích.
  • Veřejné služby: Systémy hodnocení nároku na dávky nebo zdravotní péči.
    Příklad: AI rozhoduje o přidělení sociální podpory.
  • Hodnocení úvěrové schopnosti: AI systémy používané pro posuzování úvěrového rizika.
    Příklad: Automatické schvalování úvěrů podle scoringu.

Požadavky na vysoce rizikové systémy zahrnují:

  1. Posouzení shody: Ověření souladu s požadavky AI Act.
  2. Registrace v databázi EU: Veřejně dostupná databáze pro kontrolu registrovaných systémů.
  3. Dohled po uvedení na trh: Monitorování a hlášení incidentů.

Další požadavky zahrnují:

  • Správa rizik: Dokumentovaný systém řízení rizik.
  • Transparentnost: Informace pro uživatele a interpretovatelnost výstupů.
  • Lidský dohled: Možnost lidské kontroly a vypnutí systému.
  • Kybernetická bezpečnost: Odolnost vůči manipulacím a útokům.

Omezené riziko

AI systémy v kategorii omezeného rizika jsou povoleny, avšak podléhají určitým informačním povinnostem. Tyto povinnosti mají zajistit, že uživatelé plně rozumějí povaze a fungování daného systému. Například u chatbotů je nezbytné, aby jasně informovaly uživatele o tom, že komunikují s umělou inteligencí, nikoli s člověkem. Tímto způsobem se předchází nejasnostem a zneužití důvěry uživatelů.

Systémy v této kategorii podléhají informačním povinnostem, které zajišťují, že uživatelé chápou povahu a fungování AI.
Příklad: Chatboti, kteří jasně informují, že jde o AI, nikoli o živou osobu.

Minimální riziko

Do této kategorie spadá většina běžně používaných AI systémů, které nepředstavují významné riziko pro společnost ani jednotlivce. Tyto systémy jsou povoleny bez potřeby zvláštních regulací. Příkladem mohou být algoritmy doporučování obsahu, jako jsou systémy pro doporučování filmů na streamovacích platformách. Vzhledem k nízkému riziku jejich používání není vyžadován žádný zvláštní dohled či registrace.

Sem patří většina AI systémů, které nepředstavují zásadní rizika pro společnost nebo jednotlivce. Tyto systémy jsou povoleny bez zvláštní regulace.
Příklad: AI systém pro doporučování filmů na streamovací platformě.

Populární příspěvky z tohoto blogu

AI Act: Blížíme se k milníku – Co znamená 2. únor 2025 pro firmy a jejich systémy AI?