Európania za bezpečné pripojenia požadujú prísnejšiu reguláciu umelej inteligencie pri rozhodovaní

Europeans for Safe Connections je koalícia národných a medzinárodných organizácií, ktoré si uvedomujú nepriaznivé dôsledky moderných komunikačných technológií. Zdôrazňujú, že nie sú proti technológiám, ale sú za bezpečnú techniku ​​a bezpečné pripojenie.

Medziiným volajú po lepšej regulácii ochrany osobných údajov a automatizovaného rozhodovania pomocou umelej inteligencie. Navrhujú spustiť hodnotenie vplyvu 5G na ochranu osobných údajov ( návrh 19 ), aktívny boj proti diskriminácii a porušovaniu digitálnych práv ( návrh 21 ) a myslia si, že občania by mali byť informovaní o tom, či sú ich údaje spracovaných automatizovaným postupom ( návrh 22 ).

Ako to všetko začalo

Umelá inteligencia (UI) existuje už pomerne dlho. Už na začiatku 50-tych rokov boli vysoké očakávania týkajúce sa nekonečných možností, ktoré inteligentné technológie prinesú našej spoločnosti. Teraz, o viac ako polstoročie neskôr, sa technológii UI podarilo pomaly preniknúť do nášho každodenného života. Hoci humanoidné roboty ešte nechodia po našej planéte, ale pri správe infraštruktúry, pracovných procesoch a voľnom čase sa spoliehame na viaceré komplexné technológie.

Súčasné „inteligentné“ technológie sa môžu líšiť od toho, čo by skorší vedci nazvali inteligentnými strojmi podobnými ľuďom. Zatiaľ čo Alan Turing definoval inteligenciu ako myslenie a konanie ako ľudia, v súčasnosti inteligentné systémy vysávajú náš dom len s obmedzenými „myšlienkami“. Je ťažké definovať, čo presne UI je a čo zahŕňa. Napriek tomu nám to umožnilo žiť život efektívnejšie, plynulejšie a možno ešte príjemnejšie.

Nevýhody nekonečnej automatizácie a robotizácie sú však čoraz zreteľnejšie. Vezmime si napríklad uchádzačky do Amazonu: zamietnuté, pretože algoritmus sa naučil uprednostňovať mužov pred ženami . Alebo chatbot spoločnosti Microsoft Tay na Twitteri, ktorý musel byť stiahnutý do režimu offline, pretože sa naučil niektoré extrémne rasistické „pravdy“ od ostatných Tweeterov. Alebo skutočnosť, že pri hľadanom výraze „CEO“ na Google sa zobrazujú najmä obrázky mužov .

Môže sa zdať, že UI znásobuje to najhoršie v ľuďoch a prehlbuje existujúce nerovnosti. Napriek tomu to môže byť trochu zjednodušený záver . Systémy UI a základné algoritmy sa často spoliehajú na údaje, veľa údajov, aby sa dozvedeli o našom svete. Techniky strojového učenia, ako sú neurónové siete a rozhodovacie stromy, sa pokúšajú odvodiť trendy, prepojenia medzi konceptmi a dôležité parametre, ktoré im pomôžu vybrať si správne možnosti v budúcich požiadavkách. Tieto údaje nie sú niečo, čo bolo vytvorené pre strojové učenie. Nie, väčšinu údajov sme vygenerovali my, ľudia, pri klikaní na internet a zdieľaní našich preferencií. Používaním našich údajov na učenie tak systémy UI odhaľujú systematické predsudky, ktoré už boli v našej spoločnosti do určitej miery prítomné. A to robí z implementácie inteligentných technológií nielen technologickú, ale aj spoločenskú a etickú záležitosť . Z týchto dôvodov niektorí výskumníci tvrdia, že inžinieri sa už dlho schovávajú za technologické aspekty UI, a zameriavajú sa na zlepšenie výpočtov a pritom zanedbávajú účinky, ktoré by ich inovácie mohli mať na koncových používateľov. Technológia sa stavia medzi vývojára a vonkajší svet.

Tento článok popisuje tri problémy: diskrimináciu, zodpovednosť a logiku čiernej skrinky.

AIdalle
Zimná krajina s 20 telekomunikačnými stožiarmi medzi jedľami a smrekmi
Kredit: Public Domain
Zdroj: https://labs.openai.com/

Diskriminácia a predsudky

Rovnako ako ženy uchádzajúce sa o prácu v Amazone, ani ľudia z menšinových skupín nespadajú do rozsahu systémov UI. Dôvod je zrejmý už z názvu: ide o ľudí tvoriacich menšinu. Ich zastúpenie v dátach bude obmedzené a algoritmus sa nebude učiť špecifické črty reprezentujúce týchto jednotlivcov. Rovnako ako ľudia, aj systémy fungujú horšie s obmedzenými znalosťami. Výsledok: čierni jedinci sú označovaní ako opice inteligentným softvérom na čítanie obrázkov od spoločnosti Google alebo ako nebezpečnejší v systéme automatického hodnotenia rizika recidívy . Jednoducho preto, že softvér bol trénovaný na obrázkoch obsahujúcich bielych jedincov (a možno gorily).

Dátoví vedci si tento problém uvedomujú a už existujú techniky na zlepšenie výkonu. Napríklad úpravou súboru údajov tak, aby boli menšinové skupiny lepšie zastúpené. Alebo pridaním ďalšieho kroku do procesu strojového učenia na doladenie modelu.

A aby bola diskusia ešte komplikovanejšia: čo ak náš systém predpovedá výsledky veľmi dobre. Predpokladajme, že vytvoríme dva algoritmy. Taký, ktorý správne odhalí ochorenie v 80 % prípadov u bielych jedincov, ale iba v 60 % prípadov u jedincov s farbou pleti. A druhý, ktorý správne odhalí chorobu len v 60 % prípadov bez ohľadu na vlastnosti človeka. Mali by sme sa potom snažiť o rovnosť a použiť horší algoritmus? Aj keď ten diskriminujúci by potenciálne mohol zachrániť viac bielych jedincov? Tu vstupujú do hry etické úvahy .

Z nášho dátového vedca sa práve stal človek, ktorý formuje vieru miliónov ďalších, a zrazu musí urobiť ťažké etické úvahy. Etické dilemy, ktoré ešte nie sú zodpovedané vo verejnej diskusii. Nemôžeme očakávať, že inžinieri budú robiť tieto rozhodnutia, a ani by sme to nemali chcieť. Na usmernenie softvéru sú potrebné demokratické predpisy.

AIdiscrimination
Umelá inteligencia je dobrý sluha, ale zlý pán.
Kredit: Stop 5G Team

Zodpovednosť

V našej spoločnosti sú jednotlivci braní na zodpovednosť za svoje činy. Pri inteligentných systémoch je ťažké identifikovať vinníka. Najmä ak sú systémy zložité a samoučia sa. Inžinieri nemôžu vždy predpovedať, čo sa systém naučí alebo ako sa bude správať. Amazon pravdepodobne nemal v úmysle ohroziť uchádzačky, ani Google vedome neumiestnil mužov na prvé miesto vo výsledkoch vyhľadávania. Až po uvedení systému na svet sa tieto dôsledky prejavili. Ale kto za to môže? Spoločnosť za používanie týchto systémov, aj keď predtým nemali žiadne rozumné dôvody pochybovať o kvalite systému? Alebo spoločnosť, ktorá vytvorila systém predaja produktu, ktorý sa ukázal byť diskriminačný?

Inovácie boli vždy do určitej miery riskantné. Žiadajú úpravy v našej spoločnosti a v justičnom systéme. Vezmite auto. Vo svojich začiatkoch sa auto mohlo voľne pohybovať po mestách bez bezpečnostných pásov, airbagov a dopravných značiek. Až kým počet obetí rýchlo nerástol a ulice sa stali neprechodnými. Na zefektívnenie novej technológie v existujúcej infraštruktúre boli potrebné nové usmernenia a predpisy. Málokto predpovedal, že auto sa stane takým nebezpečným pre chodiaci dav. Reguláciou používania sa nám podarilo zvýšiť bezpečnosť a zároveň využiť výhody tohto nového druhu dopravy. V dnešnej dobe si už len ťažko vieme predstaviť svet bez motorovej dopravy.

Rovnako ako v prípade áut, zákaz systémov UI pre ich počiatočné nebezpečné dôsledky by bol príliš krátkozraký. Systémy umelej inteligencie môžu mať a už aj majú pozitívny vplyv na našu spoločnosť. Avšak dnes sú systémy umelej inteligencie vyvíjané a zavádzané do nášho každodenného života bez akýchkoľvek „bezpečnostných pásov“ alebo iných záruk. Je dôležité kriticky premýšľať o tom, ako chceme, aby UI existovala v našej spoločnosti. Začať rozhovor o tom, ako môžeme zvýšiť bezpečnosť týchto systémov alebo znížiť poškodenie v prípade neočakávaných výsledkov.

AIaccountability
Červená vlajka
Kredit: Stop 5G Team

Čierna skrinka

V odôvodnení GDPR sa uvádza, že ľudia majú právo vidieť dôvody, na základe ktorých boli prijaté rozhodnutia, aké údaje sa zhromažďujú a ako sa tieto údaje použijú. Tento relatívne nový zákon bol určitým krokom správnym smerom, ale zďaleka nie je vhodným riešením na zabezpečenie súkromia alebo dodržiavanie občianskych práv. Pri návšteve webovej stránky na internete sú používatelia často konfrontovaní s veľkým množstvom textu, ktorý nejasne vysvetľuje, aké osobné údaje sa zhromažďujú. A väčšinou je ťažké odmietnuť akékoľvek súbory cookie alebo musíte kliknúť na niekoľko kontextových okien. Spoločnosti sa riadia základnými obmedzeniami GDPR a neuľahčujú jednotlivcom dohľad nad ich vlastnými údajmi. Preto sa domnievame, že GDPR je naivná iniciatíva, ktorá ukazuje hlad po údajoch online spoločností.

Ale aj keď by spoločnosti boli ochotnejšie zdieľať skutočný zber a používanie osobných údajov, nie sú vždy plne schopné. Mnoho inteligentných systémov funguje ako čierne skrinky: vložte veľa údajov a systém poskytne určitý výstup v závislosti od vlastností údajov. V posledných rokoch inžinieri uprednostňovali tieto systémy čiernej skrinky. Takéto systémy mali vysoký potenciál na učenie sa zložitejších konceptov, ako je jazyk alebo obrázky. Známymi príkladmi systémov čiernej skrinky sú neurónové siete, softvér na rozpoznávanie tváre alebo softvér na spracovanie prirodzeného jazyka (napr. Google Translate). Inžinieri majú kontrolu nad niektorými parametrami, ale nemajú žiadny prehľad o type informácií, ktoré sa tieto systémy učia alebo odvodzujú z údajov. Iba kontrolou výkonu na nových údajoch môže inžinier odhadnúť, či sa systém naučil to, čo mal. Inžinier by napríklad mohol vložiť súbor nových obrázkov, aby zistil, či je systém schopný ich interpretovať. Ale ako sme videli skôr, ak inžinier dostatočne dôkladne neotestoval systém, fotografie farebných ľudí by sa mohli interpretovať ako fotografie opíc. Mohli by inžinieri v Google vedieť o tejto chybe ? Asi áno, ak by testovali softvér na súbore fotografií ľudí inej farby pleti. Fotografie však môžu obsahovať čokoľvek. A bolo by veľmi ťažké overiť systém na všetkom možnom.

Efektívnejšie by bolo overiť, aké veci sa softvér naučil. Ak by nám algoritmus Google mohol povedať, aké kroky podniká, aby sa dostal k interpretácii, inžinieri by mohli overiť túto úvahu a odhadnúť pravdepodobné výnimky alebo prípady chýb. Preto členovia vedeckej komunity volajú po zrozumiteľnejších prístupoch k strojovému učeniu . Algoritmy čiernej skrinky ešte nenaplnili svoj potenciál a nie sú nevyhnutne lepšie ako zrozumiteľnejšie algoritmy.

Výhoda interpretovateľnosti týchto zrozumiteľných algoritmov je väčšia ako očakávaná výkonnostná výhoda algoritmov čiernej skrinky. Iba ak vieme, čo sa deje, môžeme zasiahnuť alebo sa podľa toho prispôsobiť.

AIblack_box
Sledovanie čiernej skrinky
Kredit: Stop 5G Team

Záver

UI a inteligentný softvér sú v modernom živote úplne všadeprítomné. Ovplyvňujú rozhodovacie procesy v spoločnostiach a prejavujú predsudky voči menšinovým skupinám. Po celú dobu úplne nerozumieme tomu, ako umelá inteligencia funguje, ako nás ovplyvňuje a aké to bude mať dlhodobé účinky.

Občania EÚ nedostali otázku, či akceptujú všadeprítomné spoločenské dôsledky rozhodovacích nástrojov riadených umelou inteligenciou v mene technologického pokroku a digitalizácie. A tiež:

  • Európskemu výboru pre ochranu údajov sa nepáčia nové legislatívne návrhy Európskej komisie , ktoré uľahčia používanie a zdieľanie (osobných) údajov medzi viacerými verejnými a súkromnými stranami. Podľa Európskeho výboru pre ochranu údajov to „ výrazne ovplyvní ochranu základných práv na súkromie a ochranu osobných údajov.
  • Európska rada zdôrazňuje význam prístupu k politike umelej inteligencie zameraného na človeka. Vyzýva k zamysleniu sa nad otázkami, ako je neobjektívne a neprehľadné rozhodovanie, ktoré ovplyvňuje základné ľudské práva občanov.
  • Predbežná štúdia UNESCO o etike umelej inteligencie na strane 10 uvádza, že „ Najdôležitejšie je… vzdelávať budúcich inžinierov a počítačových vedcov pre eticky zladený dizajn systémov UI.
  • Európska občianska iniciatíva (ECI) s názvom Reclaim Your Face požadovala zákaz používania škodlivej umelej inteligencie, ako je biometrické hromadné sledovanie a sledovanie rozpoznávania tváre.
  • Už v roku 1942 Isaac Asimov predvídal problémy a uviedol tri zákony robotiky. Prvým zákonom je, že robot nesmie ublížiť človeku. Ako je uvedené v tomto článku, od toho máme ďaleko.

Autorka

Amar van Uden

Amar van Uden je prispievateľkou Európskej občianskej iniciatívy (ECI) „ Stop (((5G))) – Zostaňte v spojení, ale chráňte sa “. Amar pochádza z Holandska a študuje umelú inteligenciu.

amar

Fórum európskej občianskej iniciatívy je platforma prevádzkovaná Európskou občianskou akčnou službou (ECAS) v mene Európskej komisie a na základe zmluvy s Európskou komisiou.
Tento článok tam bol prvýkrát publikovaný: 24.01.2023

https://europa.eu/citizens-initiative-forum/blog/europeans-safe-connections-call-stronger-regulation-artificial-intelligence-decision-making_en

Pridajte svoj názor