Aplikacione

Çfarë nënkupton për konsumatorët akti i propozuar i BE-së për të rregulluar AI-në?


Akti i propozuar i Bashkimit Evropian për inteligjencën artificiale (AI) u miratua nga Parlamenti Evropian dhe është një moment historik në rregullimin e teknologjisë.

Votimi është një hap i rëndësishëm drejt futjes së legjislacionit, i cili tani kërkon miratimin zyrtar të ministrave nga vendet anëtare të BE-së.

Konsumatorët nuk do të vërejnë një ndryshim të menjëhershëm, duke qenë se akti do të zbatohet në një periudhë trevjeçare.

Por ai do t’i përgjigjet disa shqetësimeve për teknologjinë.

“Përdoruesit do të jenë në gjendje të besojnë se mjetet e inteligjencës artificiale në të cilat kanë akses janë verifikuar me kujdes dhe janë të sigurta për t’u përdorur”, ka thënë Guillaume Couneson, partner në firmën ligjore Linklaters.

“Kjo është e ngjashme me përdoruesit e aplikacioneve bankare që mund të besojnë se banka ka marrë masa të rrepta sigurie për t’i mundësuar ata të përdorin aplikacionet në mënyrë të sigurt”.

Projektligji ka rëndësi jashtë BE-së, sepse Brukseli është një rregullator teknologjik me ndikim, siç tregohet nga ndikimi i GDPR në menaxhimin e të dhënave të njerëzve.

Akti i AI mund të bëjë të njëjtën gjë.

“Shumë vende të tjera do të shikojnë se çfarë ndodh në BE pas miratimit të Aktit të AI. Qasja e BE-së ka të ngjarë të kopjohet vetëm nëse tregohet se funksionon”, ka shtuar Couneson.

Si e përcakton ligji AI-në?

Një përkufizim bazë i AI është një sistem kompjuterik që kryen detyra që normalisht lidhen me nivelet njerëzore të inteligjencës, të tilla si shkrimi i një eseje ose vizatimi i një fotografie.

Vetë akti ka një pamje më të detajuar, duke përshkruar teknologjinë e AI që ajo rregullon si një “sistem i bazuar në makinë i krijuar për të funksionuar me nivele të ndryshme autonomie”, i cili padyshim mbulon mjete si ChatGPT.

Ky sistem mund të tregojë “përshtatshmëri pas vendosjes” – mëson në punë – dhe nxjerr përfundime nga inputet që merr “si të gjenerohen rezultate të tilla si parashikime, përmbajtje, rekomandime ose vendime që mund të ndikojnë në mjediset fizike ose virtuale”.

Ky përkufizim mbulon chatbot-et, por edhe mjetet e AI që analizojnë aplikacionet për punë.

Legjislacioni ndalon sistemet që paraqesin një “rrezik të papranueshëm”, por ai përjashton mjetet e AI të krijuara për përdorim ushtarak, mbrojtje ose siguri kombëtare, çështje që alarmojnë shumë avokatë të sigurisë së teknologjisë.

Gjithashtu nuk zbatohet për sistemet e krijuara për përdorim në kërkimin shkencor dhe inovacionin.

“Ne kemi frikë se përjashtimet për sigurinë kombëtare në Aktin e AI u ofrojnë vendeve anëtare një kartë të bardhë për të anashkaluar rregulloret vendimtare të AI dhe për të krijuar një rrezik të lartë abuzimi”, ka thënë Kilian Vieth-Ditlmann, nënkryetari i politikave në organizatën gjermane jofitimprurëse Algorithmwatch.

Si i trajton projektligji rreziqet e paraqitura nga AI?

Disa sisteme do të ndalohen.

Këto përfshijnë sisteme që kërkojnë të manipulojnë njerëzit për të shkaktuar dëm; sistemet e “pikëzimit social” që klasifikojnë njerëzit bazuar në sjelljen ose personalitetin shoqëror; përpjekje të stilit të raportit të pakicave për policimin parashikues; monitorimi i emocioneve të njerëzve në punë ose në shkollë; sistemet e “kategorizimit biometrik” që analizojnë njerëzit në bazë të të dhënave të tyre biometrike për të nxjerrë përfundime për gjëra të tilla si raca, orientimi seksual, opinionet politike ose besimet fetare; dhe përpilimi i bazave të të dhënave për njohjen e fytyrës.

Përjashtimet për zbatimin e ligjit

Njohja e fytyrës ka qenë një faktor kontestues në legjislacion.

Përdorimi i sistemeve të identifikimit biometrik në kohë reale është i ndaluar, por lejohet për zbatimin e ligjit në një sërë rrethanash.

Forcat e zbatimit të ligjit mund të përdorin një teknologji të tillë për të gjetur një person të zhdukur ose për të parandaluar një sulm terrorist.

Por ata do të kenë nevojë për miratim nga autoritetet – edhe pse në rrethana të jashtëzakonshme ajo mund të vendoset pa miratim paraprak.

Po sistemet që janë të rrezikshme, por jo të ndaluara?

Akti ka një kategori të veçantë për sistemet me “rrezik të lartë” që do të jenë të ligjshme, por të respektuara nga afër.

Të përfshira janë sistemet e përdorura në infrastrukturën kritike, si uji, gazi dhe energjia elektrike, ose ato të vendosura në fusha si arsimi, punësimi, kujdesi shëndetësor dhe banka.

Po ashtu do të mbulohen disa sisteme të zbatimit të ligjit, drejtësisë dhe kontrollit kufitar.

Akti kërkon që këto mjete të jenë të sakta, t’i nënshtrohen vlerësimeve të rrezikut, të kenë mbikëqyrje njerëzore dhe gjithashtu të regjistrojnë përdorimin e tyre.

Qytetarët e BE-së gjithashtu mund të kërkojnë shpjegime në lidhje me vendimet e marra nga këto sisteme të AI që kanë ndikuar tek ata.

Po në lidhje me AI gjeneruese?

AI gjeneruese – termi për sistemet që prodhojnë tekst, imazh, video dhe audio të besueshme nga kërkesa të thjeshta – mbulohet nga dispozitat për ato që akti i quan sistemet e AI “për qëllime të përgjithshme”.

Do të ketë një qasje me dy nivele.

Sipas nivelit të parë, të gjithë zhvilluesit e modeleve do të duhet të respektojnë ligjin e BE-së për të drejtën e autorit dhe të ofrojnë përmbledhje të hollësishme të përmbajtjes së përdorur për të trajnuar modelin.

Është e paqartë se si modelet tashmë të trajnuara do të jenë në gjendje të pajtohen, dhe disa janë tashmë nën presionin ligjor.

New York Times po padit OpenAI dhe Getty Images po padit StabilityAI, duke pretenduar shkelje të të drejtave të autorit.

Modelet me burim të hapur, të cilat janë të disponueshme falas për publikun, ndryshe nga modelet “të mbyllura” si GPT-4 e ChatGPT, do të përjashtohen nga kërkesa për të drejtën e autorit.

Një nivel më i ashpër rezervohet për modelet që paraqesin një “rrezik sistemik” dhe pritet të përfshijë chatbot dhe gjenerues imazhesh.

Masat për këtë nivel përfshijnë raportimin e incidenteve serioze të shkaktuara nga modelet, të tilla si vdekja ose shkelja e të drejtave themelore, dhe kryerja e “testeve kundërshtare”, ku ekspertët përpiqen të anashkalojnë masat mbrojtëse të modelit.

Çfarë mendojnë kompanitë e teknologjisë?

Projektligji ka marrë një përgjigje të përzier.

Kompanitë më të mëdha të teknologjisë janë publikisht mbështetës të legjislacionit në parim, ndërsa janë të kujdesshëm ndaj specifikave.

Amazon ka bërë me dije se ishte e përkushtuar për të bashkëpunuar me BE-në “për të mbështetur zhvillimin e sigurt dhe të përgjegjshëm të teknologjisë së AI-së”.

Por Meta e Mark Zuckerberg paralajmëroi kundër mbirregullimit.

“Është thelbësore që të mos harrojmë potencialin e madh të AI për të nxitur inovacionin evropian dhe për të mundësuar konkurrencën, dhe hapja është thelbësore këtu”, ka thënë kreu i kompanisë për çështjet e BE-së.

Në privat, përgjigjet kanë qenë më kritike.

Një figurë e lartë në një kompani amerikane ka paralajmëruar se BE-ja kishte vendosur një kufi për fuqinë kompjuterike të përdorur për të trajnuar modelet e AI që është shumë më i ulët se propozimet e ngjashme në SHBA.

Cilat janë dënimet sipas aktit?

Gjobat do të variojnë nga 7.5 milionë euro ose 1.5% e xhiros totale të një kompanie në mbarë botën  për dhënien e informacionit të pasaktë te rregullatorët, deri në 15 milionë euro ose 3% të xhiros mbarëbotërore për shkeljen e disa dispozitave të aktit, siç janë detyrimet e transparencës.

Deri në 35 milionë euro, ose 7% e xhiros, për vendosjen ose zhvillimin e mjeteve të ndaluara të AI.

Sakaq, do të ketë gjoba më proporcionale për kompanitë më të vogla dhe startup-et.

Detyrimet do të hyjnë në fuqi pas 12 muajsh, kështu që në një moment të vitit të ardhshëm, pasi akti të bëhet ligj, pas gjashtë muajsh hyn në fuqi ndalimi i disa kategorive.

Do të ketë gjithashtu një zyrë të re evropiane të AI që do të vendosë standarde dhe do të jetë organi kryesor mbikëqyrës për modelet.

Marrë nga “The Guardian”, përshtatur për “Albanian Post”.

Shkarkimi dhe publikimi i teksteve nga Albanian Post nuk lejohet pa përmendur burimin. Faleminderit për respektimin e etikës së profesionit të gazetarit.

/Albanianpost.com


Lajmet kryesore