Savienoties ar mums

datortehnoloģijas

OASI, pirmā meklētājprogramma, kas atrada algoritmus, ko valdības un uzņēmumi izmanto pilsoņiem

AKCIJA:

Izdots

on

Mēs izmantojam jūsu pierakstīšanos, lai sniegtu saturu jūsu piekrišanas veidā un uzlabotu mūsu izpratni par jums. Abonementu varat anulēt jebkurā laikā.

  • Etikas fonda izveidotā OASI algoritmu ar sociālo ietekmi observatorija apkopo informāciju no desmitiem algoritmu, ko izmanto valsts pārvaldes iestādes un uzņēmumi visā pasaulē, lai uzzinātu vairāk par to sociālo ietekmi.
  • Mērķis ir nodrošināt sabiedrībai piekļuvi informācijai gan par valdībām, gan uzņēmumu algoritmiem, kā arī zināt, kas to izmanto, kas tos izstrādā, kādus draudus tie pārstāv un vai tie ir revidēti.
  • Algoritmu aizspriedumi un diskriminācija parasti notiek, pamatojoties uz vecumu, dzimumu, rasi vai invaliditāti, starp citām vērtībām, taču vispārējā pārredzamības trūkuma dēļ joprojām nav iespējams uzzināt visas tā sekas uz skartajām grupām.

Bezpeļņas organizācija Eticas Foundation, kas veicina atbildīgu algoritmu un mākslīgā intelekta (AI) sistēmu izmantošanu, ir izveidojusi Sociālās ietekmes algoritmu observatoriju (OASI). Šī observatorija ievieš meklētājprogrammu, lai uzzinātu vairāk par rīkiem, kas pieņem svarīgus automatizētus lēmumus pilsoņiem, patērētājiem un lietotājiem visā pasaulē.

Pašlaik gan uzņēmumi, gan valsts pārvaldes iestādes automatizē lēmumus, pateicoties algoritmiem. Tomēr, tā izstrāde un nodošana ekspluatācijā neietilpst ārējās kvalitātes kontrolēs, kā arī nav tik caurspīdīga, kā vajadzētu, kas atstāj iedzīvotājus neaizsargātus. Izmantojot šo meklētājprogrammu, ikviens var uzzināt vairāk par šiem algoritmiem: kas tos ir izstrādājis, kas tos izmanto, to pielietojuma jomu, neatkarīgi no tā, vai tie ir revidēti, to mērķus vai sociālo ietekmi un draudus, ko tie pārstāv.

Šobrīd, OASI apkopo 57 algoritmus, bet paredz, ka nākamajos mēnešos sasniegs 100. Tostarp 24 ASV jau piemēro valdība un Big Tech uzņēmumi. Piemēram, ShotSpotter-algoritmu rīks, ko Ouklendas policijas pārvalde izmanto, lai apkarotu un samazinātu ieroču vardarbību, izmantojot skaņas uzraudzības mikrofonus, un algoritms, lai prognozētu iespējamo vardarbību pret bērniem un nolaidību, ko izmanto Allegheny County, Pensilvānija. Vēl viens korporatīvais piemērs ir Rekognition, Amazon sejas atpazīšanas sistēma, kuru MIT Media Lab revidēja 2019. gada sākumā, un tika konstatēts, ka tā darbojas ievērojami sliktāk, nosakot indivīda dzimumu, ja tā ir sieviete vai tumšāka āda.

Visizplatītākā diskriminācija ir vecuma, dzimuma, rases vai invaliditātes dēļ, ko netīši radījuši izstrādātāji, kuriem trūkst sociālekonomisko prasmju, lai izprastu šīs tehnoloģijas ietekmi. Šajā ziņā šie inženieri izstrādā algoritmus, pamatojoties tikai uz tehniskajām prasmēm, un, tā kā nav ārējas kontroles un šķiet, ka tas darbojas kā paredzēts, algoritms turpina mācīties no nepilnīgiem datiem.

Ņemot vērā pārredzamības trūkumu attiecībā uz dažu šo algoritmu darbību, Eticas Foundation, izņemot OASI uzsākšanu, izstrādā ārējo revīziju projektu. Pirmais ir VioGén, algoritms, ko Spānijas Iekšlietu ministrija izmantoja, lai piešķirtu risku sievietēm, kuras meklē aizsardzību pēc vardarbības ģimenē gadījumiem. Eticas veiks ārēju revīziju, izmantojot reversās inženierijas un administratīvos datus, intervijas, ziņojumus vai dizaina skriptus, lai apkopotu rezultātus mērogā. Tas viss ar mērķi atklāt iespējas uzlabot šo sieviešu aizsardzību.

“Neskatoties uz to, ka pastāv algoritmiskas kontroles un revīzijas metodes, lai nodrošinātu, ka tehnoloģija ievēro pašreizējos noteikumus un pamattiesības, administrācija un daudzi uzņēmumi turpina nedzirdēt pilsoņu un iestāžu pārredzamības pieprasījumiem,” paziņoja Etika fonda dibinātāja Džemma Galdone. . “Papildus OASI pēc vairākiem gadiem, kuros esam izstrādājuši vairāk nekā duci revīziju tādiem uzņēmumiem kā Alpha Telefónica, Apvienoto Nāciju Organizācija, Koa Health vai Amerikas Attīstības banka, mēs esam publicējuši arī Algoritmiskās revīzijas rokasgrāmatu, lai ka ikviens var tos izpildīt. Mērķis vienmēr ir palielināt izpratni, nodrošināt pārredzamību un atjaunot uzticību tehnoloģijām, kurām pašām nav jābūt kaitīgām. ”

Šajā ziņā algoritmi, kas tiek apmācīti ar mašīnmācīšanās tehnoloģijām, izmantojot lielu daudzumu vēsturisku datu, lai "iemācītu" viņiem izvēlēties, pamatojoties uz iepriekšējiem lēmumiem. Parasti šie dati neatspoguļo to sociālekonomisko un kultūras realitāti, uz kuru tie attiecas, taču daudzos gadījumos tie atspoguļo negodīgu situāciju, kuru nav paredzēts turpināt. Šādā veidā algoritms tehniski pieņemtu "pareizus" lēmumus atbilstoši apmācībai, lai gan patiesībā tā ieteikumi vai prognozes ir neobjektīvas vai diskriminējošas.

reklāma

Par Etikas fondu

Etikas fonds strādā, lai tehniskajās specifikācijās pārvērstu sabiedrībā vadāmos principus, piemēram, vienlīdzīgas iespējas, pārredzamība un nediskriminācija, kas ir tehnoloģijās, kas pieņem automatizētus lēmumus par mūsu dzīvi. Tā meklē līdzsvaru starp mainīgajām sociālajām vērtībām, jaunāko sasniegumu tehniskajām iespējām un tiesisko regulējumu. Šim nolūkam tā pārbauda algoritmus, pārbauda, ​​vai digitālajai pasaulei, it īpaši mākslīgajam intelektam, tiek piemērotas juridiskās garantijas, un veic intensīvu darbu, lai veicinātu izpratni un izplatītu nepieciešamību pēc atbildīgām, kvalitatīvām tehnoloģijām.

Dalieties ar šo rakstu:

EU Reporter publicē rakstus no dažādiem ārējiem avotiem, kas pauž dažādus viedokļus. Šajos pantos paustās nostājas ne vienmēr atbilst EU Reporter nostājai.

trending