Aj Vy sa môžete zapojiť do tvorby zákonov EÚ. Európska komisia chce počuť Vaše názory na zákony a politiky, ktoré sa v súčasnosti pripravujú. Ponúkajú platformu „Vyjadrite svoj názor“ so zoznamom všetkých nových iniciatív EÚ otvorených na verejnú konzultáciu. Ak chcete napísať spätnú väzbu, musíte sa zaregistrovať. https://ec.europa.eu/info/law/better-regulation/have-your-say_sk
Každá iniciatíva EÚ má vždy 5 etáp, pričom každá fáza je otvorená pre verejnú konzultáciu na konkrétny časový rámec:
- V prípravnej fáze
- Výzva na predloženie dôkazov
- Verejná konzultácia alebo dotazník
- Návrh právneho aktu
- Prijatie Komisiou
Európska stratégia pre umelú inteligenciu vo vede
O iniciatíve: Táto iniciatíva predstavuje komplexný politický prístup k umelej inteligencii vo vede, čím sa vedcom v celej EÚ uľahčí integrácia tejto technológie do ich práce.
Obdobie na poskytnutie spätnej väzby: Pre fázu 2 je to 10 apríla 2025 – 05 júna 2025
Moja spätná väzba
EÚ v roku 2024 prijala Akt o umelej inteligencii, ktorý rieši riziká spojené s umelou inteligenciou (UI). Aj UNESCO vydalo odporúčanie, ktoré stanovuje 10 základných princípov ohľadom etického používania UI.
Umelá inteligencia je dobrý sluha, ale zlý pán. Regulácie by mali riešiť negatívne javy a nie zbytočne obmedzovať pozitívne inovácie. Preto v tejto spätnej väzbe poukazujem na riziká, ktoré by mala pripravovaná stratégia zohľadniť.
- Je potrebné zabezpečiť, aby využívanie UI vo vede nespôsobovalo diskrimináciu a nepodliehalo zaujatosti (biasu).
Článok 6 a Príloha III nariadenia (EÚ) 2024/1689 definujú Vysokorizikové systémy UI. Článok 10 zdôrazňuje potrebu kvalitných dátových súborov, ktoré sú relevantné, reprezentatívne a bez zaujatosti. Článok 5 zakazuje používanie UI systémov, ktoré by mohli viesť k diskriminácii na základe sociálneho skóre alebo iných nevhodných kritérií.
Aj vedecké využitie UI môže viesť k diskriminácii, ak UI modely nesprávne klasifikujú výskumné výstupy.
Rôzne štúdie ukázali, že UI systémy často reprodukujú existujúcu diskrimináciu. Stroj sa „učí“ podľa rozhodnutí, ktoré už človek urobil v minulosti, ich systematizáciou. UI túto diskrimináciu preberá a zosilňuje.
Menšiny sú v dátach často málo zastúpené, čo vedie k nesprávnym a diskriminačným rozhodnutiam. Napríklad systémy rozpoznávania tváre (trénovanej na bielej pleti) chybne klasifikovali osoby tmavej pleti alebo prediktívne algoritmy v justícii hodnotili niektoré menšiny ako rizikové.
Aj pri zavedení opatrení na minimalizáciu zaujatosti, ako je napríklad vyváženie trénovacích dát, nie je možné eliminovať všetky problémy. Napríklad testovanie softvéru na rôznych vzorkách fotografií môže pomôcť odhaliť niektoré chyby, no nie všetky možné scenáre. Dátové súbory sú rozsiahle a rôznorodé, a preverenie všetkých situácií je prakticky nemožné.
Odporúčanie: Používanie UI vo vede by tiež malo byť klasifikované ako vysokorizikové.
- Je potrebné zabezpečiť, aby využívanie UI vo vede neporušovalo spracovanie osobných údajov.
Európska legislatíva (GDPR) priznavá jednotlivcom právo poznať dôvody, na základe ktorých sa ich údaje zhromažďujú a ako sa tieto údaje použijú. Spracúvanie osobných údajov musí byť v súlade s GDPR, avšak súhlas už nešpecifikuje, či ide o automatizované spracovanie s použitím UI, alebo nie.
Navyše Data Act predstavuje posun od tradičného konceptu vlastníctva údajov k definícii práv na údaje. Používateľom (napr. vlastníkom alebo užívateľom pripojených zariadení) sa priznáva právo na prístup k údajom, ktoré tieto zariadenia generujú, a na ich zdieľanie s tretími stranami.
Posun od vlastníctva údajov k právam na údaje síce podporuje otvorenú dátovú ekonomiku, no súčasne vytvára právnu neistotu a znižuje kontrolu občanov nad ich údajmi. Podľa Európskeho výboru pre ochranu osobných údajov to „bude mať výrazný dopad na ochranu základných práv na súkromie a ochranu osobných údajov“.
V EÚ máme zakázané klonovanie ľudí, genetické úravy zárodkov, vykonávanie výskumu na ľuďoch bez ich informovaného súhlasu. Výskumy na ľudských medicínskych dátach ( napr. z nositeľných zariadení) získaných bez súhlasu vlastníka je tiež sporné / diskutabilné.
Väčšinu údajov, na ktorých je UI trénovaná sme vygenerovali my, ľudia, pri klikaní na internete a zdieľaní našich preferencií. Taktiež nositeľné zariadenia zhromažďujú množstvo našich medicínskych údajov 24 hodín denne, 7 dní v týždni.
Taktiež mnoho systémov sa centralizuje – eHealth, Digitálne euro … Centrálne zhromažďovnie údajov umožňuje spracovateľom týchto údajov použiť ich na trénovanie a tým lepšie profilovanie obyvateľstva, čo môže viesť k zvýšenému dohľadu.
Odporúčanie:
- Je nevyhnutné zachovať princíp vlastníctva osobných údajov a zabezpečiť, aby UI systémy nielen vo vede spracovávali dáta len so súhlasom jednotlivca (opt-in).
- Taktiež by sa mali zverejňovať zdroje trénovacích údajov (open data), aby sa umožnila replikovateľnosť výskumu, ktorá je základným princípom vedy.
- Je potrebné zabezpečiť, aby využívanie UI vo vede neporušovalo etické normy.
Stiahnutý návrh Smernice o zodpovednosti za umelú inteligenciu (AI Liability Directive) sa mal zameriavať na nedostatky v existujúcich pravidlách občianskoprávnej zodpovednosti, ktoré neboli prispôsobené špecifikám AI systémov, ako sú ich komplexnosť, autonómia a netransparentnosť („black box“ efekt). Túto problematiku je potrebné riešiť vo vede.
V našej spoločnosti sú jednotlivci braní na zodpovednosť za svoje činy. Pri inteligentných systémoch je ťažké identifikovať vinníka. Najmä ak sú systémy zložité a samoučia sa.
Dôsledky niektorých rozhodnutí UI môžu mať etický rozmer. Inžinieri sa schovávajú za technologické aspekty UI a zameriavajú sa na zlepšenie výpočtov, pričom zanedbávajú účinky, ktoré by ich inovácie mohli mať na koncových používateľov. Technológia sa stavia medzi vývojára a vonkajší svet.
Príkladom je rozhodovanie UI v zdravotníctve: Ak algoritmus správne diagnostikuje ochorenie u bielych pacientov v 80 % prípadov, ale u pacientov tmavej pleti iba v 60 %, vzniká etický problém. Alternatívne môžeme uprednostniť „nediskriminujúci“ model, ktorý diagnostikuje všetkých rovnako v 60 % prípadoch. Toto je etická otázka, ktorú nemôžeme ponechať len na inžinieroch.
Už v roku 1942 Isaac Asimov predpovedal potrebu regulácie UI svojimi tromi zákonmi robotiky, kde prvým bolo: „Robot nesmie ublížiť človeku.“ Ako ukazuje táto naša spätná väzba, k tomuto ideálu máme ešte ďaleko.
Odporúčanie: Potrebujeme celospoločenskú diskusiu, na základe ktorej prijmeme jasné regulácie, ktoré určia etické smerovanie použitia UI.
- Je potrebné zabezpečiť, aby UI nebolo Black Box.
Článok 13 nariadenia (EÚ) 2024/1689 požaduje, aby vysokorizikové UI systémy boli navrhnuté tak, aby ich fungovanie bolo dostatočne transparentné a umožňovalo interpretáciu ich výstupov. To isté by malo platiť pre UI vo vede.
Ak by nám algoritmus mohol povedať, aké kroky podniká, aby sa dostal k interpretácii, inžinieri by mohli overiť túto úvahu a odhadnúť pravdepodobné výnimky alebo prípady chýb.
Mnoho UI systémov však funguje ako „čierne skrinky“ – vloží sa veľa údajov a systém poskytne určitý výstup. Inžinieri majú kontrolu nad niektorými parametrami, ale nemajú žiadny prehľad o forme naučeného poznania. Iba kontrolou výkonu na nových údajoch môže inžinier odhadnúť, či sa systém naučil, čo mal.
Odporúčanie:
- Je nevyhnutné podporiť vývoj interpretovateľných UI modelov, kde bude možné spätne overiť, ako UI dospela k rozhodnutiu.
- Tiež je treba zaviesť objektívnu merateľnosť výstupov v závislosti od vstupov.
- Je potrebné zabezpečiť, aby konečná zodpovednosť bola vždy na človeku
UI môže byť užitočný podporný nástroj, no nesmie rozhodovať namiesto človeka / vedca. Musíme si byť vedomí jej limitov a nemôžeme sa spoliehať na úplne 100% výsledok.
Odporúčanie:
- Konečná zodpovednosť za rozhodnutia musí vždy zostať na človeku / vedcovi.
- Akékoľvek použitie UI počas výskumu musí byť deklarované a zverejnené. Musí byť jasné, akým spôsobom bola UI zahrnutá a využitá v procese.
S pozdravom
Petra Bertová
ELÁN – Kaskadér (Official Video)

Navštívte tiež Facebookovú skupinu Vyjadrite svoj názor s ďalšími iniciatívami Európskej komisie.