datortehnoloģijas
OASI, pirmā meklētājprogramma, kas atrada algoritmus, ko valdības un uzņēmumi izmanto pilsoņiem
- Etikas fonda izveidotā OASI algoritmu ar sociālo ietekmi observatorija apkopo informāciju no desmitiem algoritmu, ko izmanto valsts pārvaldes iestādes un uzņēmumi visā pasaulē, lai uzzinātu vairāk par to sociālo ietekmi.
- Mērķis ir nodrošināt sabiedrībai piekļuvi informācijai gan par valdībām, gan uzņēmumu algoritmiem, kā arī zināt, kas to izmanto, kas tos izstrādā, kādus draudus tie pārstāv un vai tie ir revidēti.
- Algoritmu aizspriedumi un diskriminācija parasti notiek, pamatojoties uz vecumu, dzimumu, rasi vai invaliditāti, starp citām vērtībām, taču vispārējā pārredzamības trūkuma dēļ joprojām nav iespējams uzzināt visas tā sekas uz skartajām grupām.
Bezpeļņas organizācija Eticas Foundation, kas veicina atbildīgu algoritmu un mākslīgā intelekta (AI) sistēmu izmantošanu, ir izveidojusi Sociālās ietekmes algoritmu observatoriju (OASI). Šī observatorija ievieš meklētājprogrammu, lai uzzinātu vairāk par rīkiem, kas pieņem svarīgus automatizētus lēmumus pilsoņiem, patērētājiem un lietotājiem visā pasaulē.
Pašlaik gan uzņēmumi, gan valsts pārvaldes iestādes automatizē lēmumus, pateicoties algoritmiem. Tomēr, tā izstrāde un nodošana ekspluatācijā neietilpst ārējās kvalitātes kontrolēs, kā arī nav tik caurspīdīga, kā vajadzētu, kas atstāj iedzīvotājus neaizsargātus. Izmantojot šo meklētājprogrammu, ikviens var uzzināt vairāk par šiem algoritmiem: kas tos ir izstrādājis, kas tos izmanto, to pielietojuma jomu, neatkarīgi no tā, vai tie ir revidēti, to mērķus vai sociālo ietekmi un draudus, ko tie pārstāv.
Šobrīd, OASI apkopo 57 algoritmus, bet paredz, ka nākamajos mēnešos sasniegs 100. Tostarp 24 ASV jau piemēro valdība un Big Tech uzņēmumi. Piemēram, ShotSpotter-algoritmu rīks, ko Ouklendas policijas pārvalde izmanto, lai apkarotu un samazinātu ieroču vardarbību, izmantojot skaņas uzraudzības mikrofonus, un algoritms, lai prognozētu iespējamo vardarbību pret bērniem un nolaidību, ko izmanto Allegheny County, Pensilvānija. Vēl viens korporatīvais piemērs ir Rekognition, Amazon sejas atpazīšanas sistēma, kuru MIT Media Lab revidēja 2019. gada sākumā, un tika konstatēts, ka tā darbojas ievērojami sliktāk, nosakot indivīda dzimumu, ja tā ir sieviete vai tumšāka āda.
Visizplatītākā diskriminācija ir vecuma, dzimuma, rases vai invaliditātes dēļ, ko netīši radījuši izstrādātāji, kuriem trūkst sociālekonomisko prasmju, lai izprastu šīs tehnoloģijas ietekmi. Šajā ziņā šie inženieri izstrādā algoritmus, pamatojoties tikai uz tehniskajām prasmēm, un, tā kā nav ārējas kontroles un šķiet, ka tas darbojas kā paredzēts, algoritms turpina mācīties no nepilnīgiem datiem.
Ņemot vērā pārredzamības trūkumu attiecībā uz dažu šo algoritmu darbību, Eticas Foundation, izņemot OASI uzsākšanu, izstrādā ārējo revīziju projektu. Pirmais ir VioGén, algoritms, ko Spānijas Iekšlietu ministrija izmantoja, lai piešķirtu risku sievietēm, kuras meklē aizsardzību pēc vardarbības ģimenē gadījumiem. Eticas veiks ārēju revīziju, izmantojot reversās inženierijas un administratīvos datus, intervijas, ziņojumus vai dizaina skriptus, lai apkopotu rezultātus mērogā. Tas viss ar mērķi atklāt iespējas uzlabot šo sieviešu aizsardzību.
“Neskatoties uz to, ka pastāv algoritmiskas kontroles un revīzijas metodes, lai nodrošinātu, ka tehnoloģija ievēro pašreizējos noteikumus un pamattiesības, administrācija un daudzi uzņēmumi turpina nedzirdēt pilsoņu un iestāžu pārredzamības pieprasījumiem,” paziņoja Etika fonda dibinātāja Džemma Galdone. . “Papildus OASI pēc vairākiem gadiem, kuros esam izstrādājuši vairāk nekā duci revīziju tādiem uzņēmumiem kā Alpha Telefónica, Apvienoto Nāciju Organizācija, Koa Health vai Amerikas Attīstības banka, mēs esam publicējuši arī Algoritmiskās revīzijas rokasgrāmatu, lai ka ikviens var tos izpildīt. Mērķis vienmēr ir palielināt izpratni, nodrošināt pārredzamību un atjaunot uzticību tehnoloģijām, kurām pašām nav jābūt kaitīgām. ”
Šajā ziņā algoritmi, kas tiek apmācīti ar mašīnmācīšanās tehnoloģijām, izmantojot lielu daudzumu vēsturisku datu, lai "iemācītu" viņiem izvēlēties, pamatojoties uz iepriekšējiem lēmumiem. Parasti šie dati neatspoguļo to sociālekonomisko un kultūras realitāti, uz kuru tie attiecas, taču daudzos gadījumos tie atspoguļo negodīgu situāciju, kuru nav paredzēts turpināt. Šādā veidā algoritms tehniski pieņemtu "pareizus" lēmumus atbilstoši apmācībai, lai gan patiesībā tā ieteikumi vai prognozes ir neobjektīvas vai diskriminējošas.
Par Etikas fondu
Etikas fonds strādā, lai tehniskajās specifikācijās pārvērstu sabiedrībā vadāmos principus, piemēram, vienlīdzīgas iespējas, pārredzamība un nediskriminācija, kas ir tehnoloģijās, kas pieņem automatizētus lēmumus par mūsu dzīvi. Tā meklē līdzsvaru starp mainīgajām sociālajām vērtībām, jaunāko sasniegumu tehniskajām iespējām un tiesisko regulējumu. Šim nolūkam tā pārbauda algoritmus, pārbauda, vai digitālajai pasaulei, it īpaši mākslīgajam intelektam, tiek piemērotas juridiskās garantijas, un veic intensīvu darbu, lai veicinātu izpratni un izplatītu nepieciešamību pēc atbildīgām, kvalitatīvām tehnoloģijām.
Dalieties ar šo rakstu:
-
Tabaka5 dienas atpakaļ
Kāpēc ES tabakas kontroles politika nedarbojas
-
Middle East5 dienas atpakaļ
ES reakcija uz Izraēlas raķešu triecienu Irānai ir saistīta ar brīdinājumu Gazai
-
Kazahstāna4 dienas atpakaļ
Kazahstānas ceļojums no palīdzības saņēmēja līdz donoram: kā Kazahstānas attīstības palīdzība veicina reģionālo drošību
-
Moldova2 dienas atpakaļ
Bijušās ASV Tieslietu departamenta un FIB amatpersonas iekrāso lietu pret Ilanu Šoru