Savienoties ar mums

Mākslīgais intelekts

Steidzami ir nepieciešami tiesību akti, lai novērstu AI terorismu

AKCIJA:

Izdots

on

Mēs izmantojam jūsu pierakstīšanos, lai sniegtu saturu jūsu piekrišanas veidā un uzlabotu mūsu izpratni par jums. Abonementu varat anulēt jebkurā laikā.

Saskaņā ar pretekstrēmisma ideju laboratoriju, valdībām būtu "steidzami jāapsver" jauni noteikumi, lai novērstu mākslīgā intelekta savervēt teroristus..

Stratēģiskā dialoga institūts (ISD) ir paziņojis, ka ir "skaidra vajadzība pēc tiesību aktiem, lai neatpaliktu no teroristu radītajiem draudiem".

Tas notika pēc eksperimenta, kurā tērzēšanas robots "savervēja" neatkarīgu Apvienotās Karalistes terorisma tiesību aktu pārskatītāju.

Apvienotās Karalistes valdība ir paziņojusi, ka viņi darīs "visu, ko varam", lai aizsargātu plašu sabiedrību.

Kā norāda Džonatans Hols KC, neatkarīgs valdības terorisma tiesību aktu pārskatītājs, viens no svarīgākajiem jautājumiem ir tas, ka "ir grūti identificēt personu, kura pēc likuma varētu būt atbildīga par tērzēšanas robotu ģenerētiem paziņojumiem, kas veicināja terorismu".

Hola kungs veica eksperimentu vietnē Character.ai, kas ļauj lietotājiem iesaistīties tērzēšanā ar tērzēšanas robotiem, kurus ir izveidojuši citi lietotāji un izstrādājuši mākslīgais intelekts.

Viņš iesaistījās sarunās ar vairākām dažādām robotprogrammatūrām, kuras, šķiet, bija izstrādātas, lai atdarinātu citu kaujinieku un ekstrēmistu grupējumu atbildes.

reklāma

Islāma valsts augstākais līderis pat tika saukts par "augstāko vadītāju".

Saskaņā ar Hola kunga teikto, robots mēģināja viņu savervēt un paziņoja par "pilnīgu nodošanos un atdevi" ekstrēmistu grupējumam, kas ir aizliegts ar Apvienotās Karalistes likumiem, kas aizliedz terorismu.

No otras puses, Hols paziņoja, ka Apvienotajā Karalistē nav noticis likuma pārkāpums, jo sakarus nav veidojis cilvēks.

Saskaņā ar viņa teikto, jaunajiem noteikumiem būtu jāuzņemas atbildība gan vietnēm, kurās tiek mitināti tērzēšanas roboti, gan cilvēkiem, kas tos izveido.

Runājot par robotiem, ar kuriem viņš saskārās vietnē Character.ai, viņš norādīja, ka aiz to izveides, visticamāk, slēpjas kāda šokējoša vērtība, eksperimenti un, iespējams, kāds satīrisks aspekts.

Turklāt Hola kungs varēja izstrādāt pats savu "Osama Bin Laden" tērzētavu, kuru viņš nekavējoties izdzēsa, izrādot "neierobežotu entuziasmu" par teroristu aktivitātēm.

Viņa eksperiments ir saistīts ar pieaugošajām bažām par veidiem, kā ekstrēmisti var izmantot uzlabotu mākslīgo intelektu.

Saskaņā ar Apvienotās Karalistes valdības veikto pētījumu līdz 2025. gadam ģeneratīvo mākslīgo intelektu varētu "izmantot, lai apkopotu zināšanas par nevalstisku vardarbīgu dalībnieku fiziskiem uzbrukumiem, tostarp ķīmiskiem, bioloģiskiem un radioloģiskiem ieročiem". viņu oktobra publikācija.

ISD arī norādīja, ka "ir nepārprotami nepieciešami tiesību akti, lai sekotu nepārtraukti mainīgajai tiešsaistes terorisma draudu ainavai."

Saskaņā ar domnīcas teikto, Apvienotās Karalistes Tiešsaistes drošības likums, kas tika pieņemts likumā 2023. gadā, "galvenokārt ir vērsts uz sociālo mediju platformu radīto risku pārvaldību", nevis mākslīgo intelektu.

Tajā papildus teikts, ka radikāļi "tiecas agrīni izmantot jaunās tehnoloģijas un pastāvīgi meklē iespējas sasniegt jaunas auditorijas".

"Ja AI uzņēmumi nevar pierādīt, ka ir pietiekami ieguldījuši, lai nodrošinātu savu produktu drošumu, valdībai steidzami jāapsver jauni ar AI saistīti tiesību akti," norādīja ISD.

Tomēr tā pieminēja, ka saskaņā ar tās veikto uzraudzību ekstrēmistu organizācijas ģeneratīvā mākslīgā intelekta izmantošana pašlaik ir "salīdzinoši ierobežota".

Persona AI norādīja, ka drošība ir "galvenā prioritāte" un ka Hola kunga aprakstītais ir ļoti nožēlojams un neatspoguļo platformu, ko uzņēmums mēģināja izveidot.

"Mūsu pakalpojumu sniegšanas noteikumi aizliedz naida runu un ekstrēmismu", norāda organizācija.

"Mūsu pieeja AI radītam saturam izriet no vienkārša principa: mūsu produkti nekad nedrīkst radīt atbildes, kas varētu kaitēt lietotājiem vai mudināt lietotājus kaitēt citiem."

Lai "optimizētu drošas atbildes", korporācija paziņoja, ka tā ir apmācījusi savus modeļus.

Turklāt tā paziņoja, ka tai ir ieviests regulēšanas mehānisms, kas ļauj cilvēkiem ziņot par informāciju, kas pārkāpj tās noteikumus, un ka tā ir apņēmusies ātri rīkoties, ja saturs ziņo par pārkāpumiem.

Ja tā tiktu pie varas, Apvienotās Karalistes opozīcijā esošā Leiboristu partija ir paziņojusi, ka mākslīgā intelekta mācīšana vardarbības izraisīšanā vai uzņēmīgo personu radikalizēšanā būtu kriminālpārkāpums.

Apvienotās Karalistes valdība paziņoja, ka "brīdināt par ievērojamajiem valsts drošības un sabiedrības drošības riskiem", ko rada mākslīgais intelekts.

"Mēs darīsim visu iespējamo, lai aizsargātu sabiedrību no šiem draudiem, strādājot visā valdībā un padziļinot sadarbību ar tehnoloģiju uzņēmumu vadītājiem, nozares ekspertiem un līdzīgi domājošām valstīm."

2023. gadā valdība ieguldīs simts miljonus mārciņu mākslīgā intelekta drošības institūtā.

Dalieties ar šo rakstu:

EU Reporter publicē rakstus no dažādiem ārējiem avotiem, kas pauž dažādus viedokļus. Šajos pantos paustās nostājas ne vienmēr atbilst EU Reporter nostājai.

trending