Aplikacione

Babai i ChatGPT-së flet për kufijtë e inteligjencës artificiale


Sam Altman, shefi ekzekutiv i laboratorit kërkimor të inteligjencës artificiale OpenAI, është në mes të një turneu botëror.

Ai po predikon se vetë sistemet e inteligjencës artificiale që ai dhe konkurrentët e tij po ndërtojnë mund të përbëjnë një rrezik ekzistencial për të ardhmen e njerëzimit.

Dhe kjo mund të ndodhi veçanërisht nëse qeveritë nuk punojnë së bashku për të vendosur shina udhëzuese, duke siguruar zhvillim të përgjegjshëm gjatë dekadës së ardhshme.

Në ditët në vijim, ai dhe qindra udhëheqës të teknologjisë kanë dhënë një deklaratë duke thënë se “zbutja e rrezikut të zhdukjes nga Inteligjenca artificiale duhet të jetë një prioritet global krahas rreziqeve të tjera në shkallë shoqërore, si pandemitë dhe lufta bërthamore”.

Është një përpjekje gjithëpërfshirëse për të bindur liderët botërorë se janë seriozë kur thonë se rreziku i inteligjencës artificiale ka nevojë për përpjekje të përbashkëta ndërkombëtare.

Altman është babai i chatbot-it ChatGPT dhe po udhëheq akuzat për të krijuar “inteligjencën e përgjithshme artificiale”, ose AGI, një sistem i aftë për të trajtuar çdo detyrë.

Aty ku inteligjenca artificiale është gati të përshkruajë diçka më komplekse se një Tamagotchi, AGI është gjëja e vërtetë: inteligjenca e nivelit njerëzor të tregimeve të tilla si Her, Star Trek, Terminator, 2001: A Space Odyssey dhe Battlestar Galactica.

Në turneun e tij botëror, duke e komplikuar më tej pozicionin e tij, Altman po predikon gjithashtu diçka përveç rreziqeve të zhvillimit të pakontrolluar të inteligjencës artificiale.

Ai po argumenton se përfitimet e zhvillimit të superinteligjencës – një AGI deri në 11 vjeç, e aftë për të zgjidhur problemet që njerëzimi nuk ka mundur t’i godasë – janë aq të mëdha sa duhet të rrezikojmë shkatërrimin e gjithçkaje për t’u përpjekur ta bëjmë gjithsesi.

Janë disa javë rraskapitëse për të.

“Ne e organizuam këtë udhëtim për të filluar t’i përgjigjemi pyetjes se cilët duhet të jenë kufijtë e këtyre sistemeve, për të vendosur se si duhet të ndahen përfitimet”.

Altman mendon se një garë drejt AGI është një gjë e keqe dhe se të mos bësh përparim në siguri është po ashtu një gjë e keqe.

Por mënyra e vetme për të pasur siguri është me “përparimin e aftësive” – ndërtimi i sistemeve më të forta të inteligjencës artificiale, aq më mirë për t’i nxitur ato dhe për të kuptuar se si funksionojnë.

Më herët, Altman dhe kolegët e tij botuan një shënim që përshkruante vizionin e tyre për atë rregullore: një organ ndërkombëtar i modeluar sipas Agjencisë Ndërkombëtare të Energjisë Atomike, për të koordinuar ndërmjet laboratorëve kërkimorë, për të vendosur standarde sigurie, për të gjurmuar fuqinë kompjuterike kushtuar sistemeve të trajnimit dhe përfundimisht kufizojnë disa qasje.

“Ka shumë interes për të ditur më shumë; më shumë sesa prisja, nga politikanë dhe rregullatorë shumë të lartë, për atë se si mund të dukej. Jam i sigurt se do të flasim edhe për shumë gjëra afatshkurtra”.

Por ky dallim, midis afatit të afërt dhe të gjatë, i ka bërë Altman të mos ketë mungesë kritikash në turneun e tij.

Është në interesin e OpenAI që të përqendrojë vëmendjen rregullatore në rrezikun ekzistencial nëse i largon qeveritë nga adresimi i dëmit të mundshëm që produktet e kompanisë tashmë janë në gjendje të shkaktojnë.

Kompania tashmë është përplasur me Italinë për mbrojtjen e të dhënave të ChatGPT, ndërsa Altman e filloi udhëtimin e tij me një vizitë në Washington DC për të kaluar disa orë duke u ngacmuar nga senatorët amerikanë për gjithçka, nga keqinformimi deri te shkeljet e të drejtave të autorit.

“Është qesharake”, sipas tij, “të njëjtët njerëz do të na akuzojnë se nuk kujdesemi për gjërat afatshkurtra dhe gjithashtu se po përpiqemi të shkojmë për kapjen rregullatorë”.

Ideja që, nëse vendosen rregulla të rënda, vetëm OpenAI dhe disa liderë të tjerë të tregut do të kenë burimet për t’u pajtuar.

“Mendoj se gjithçka është e rëndësishme. Ka afate të ndryshme kohore, por ne duhet të adresojmë secilën nga këto sfida”.

Por si mendon ai për idenë se motivimet e kompanisë mund të drejtohen nga fitimi?

“Nuk kemi nevojë të fitojmë gjithçka. Ne jemi një kompani e pazakontë: ne duam ta shtyjmë këtë revolucion në botë, të kuptojmë se si ta bëjmë atë të sigurt dhe jashtëzakonisht të dobishëm. Por unë nuk mendoj për gjërat në të njëjtën mënyrë që mendoj se ju mendoni për këto tema”.

OpenAI është me të vërtetë e pazakontë.

Organizata u themelua në vitin 2015 si një organizatë jofitimprurëse me një fond prej 1 miliard dollarësh nga mbështetësit, përfshirë Elon Musk, bashkëthemeluesin e PayPal Peter Thiel dhe bashkëthemeluesin e LinkedIn, Reid Hoffman.

Altman fillimisht veproi si bashkëkryetar së bashku me Musk, me një qëllim “për të avancuar inteligjencën digjitale në mënyrën që ka më shumë gjasa të përfitojë njerëzimin në tërësi, i pakufizuar nga nevoja për të gjeneruar kthim financiar”.

Por kjo ndryshoi në vitin 2019, kur organizata u riformua rreth një modeli të “fitimit të kufizuar”.

Altman u bë shef ekzekutiv dhe organizata filloi të merrte investime të jashtme, me kushtin që asnjë investitor nuk mund të bënte më shumë se 100 herë kontributin e tij fillestar.

Arsyeja ishte e thjeshtë: puna në kërkimin më të fundit të inteligjencës artificiale  ishte shumë më e shtrenjtë se sa dukej në fillim.

“Nuk ka asnjë mënyrë për të qëndruar në avantazhin e kërkimit të inteligjencës artificiale, e lëre më të ndërtojmë AGI, pa ne të rrisim masivisht investimet tona llogaritëse”, ka thënë në atë kohë shefi shkencëtar i OpenAI Ilya Sutskever.

Altman, tashmë i pasur në mënyrë të pavarur, e bëri pasurinë e tij të parë me Loopt dhe i dyti si president i përshpejtuesit të startup-eve Y Combinator – nuk mori asnjë kapital në kompaninë e re.

Nëse inteligjenca artificiale përfundon duke riformuar botën, ai nuk do të përfitojë më shumë se ne të tjerët.

Sipas tij, kjo është e rëndësishme sepse ndërsa Altman është i bindur se harku përkulet drejt riformimit duke qenë gjerësisht pozitiv, ku ai është më pak i sigurt se kush fiton.

“Nuk dua të them se jam i sigurt. Jam i sigurt se do të ngrejë standardin e jetesës për të gjithë, dhe, sinqerisht, nëse zgjedhja është ngritja e standardit të jetesës për të gjithë, por ruajtja e pabarazisë, unë prapë do ta pranoja atë”.

“Mendoj se ndoshta mund të pajtohemi që nëse ndërtohet AGI e sigurt, mund ta bëjë këtë. Por mund të jetë një forcë shumë barazuese”.

Sipas tij, disa teknologji janë dhe disa jo, dhe disa i bëjnë të dyja në mënyra të ndryshme.

“Por unë mendoj se ju mund të shihni një mori mënyrash, ku, nëse të gjithë në Tokë do të kishin një arsim më të mirë, një kujdes shëndetësor më të mirë, një jetë që thjesht nuk është e mundur për shkak të çmimit aktual të punës njohëse – kjo është një forcë barazuese në një mënyrë që mund të jetë e fuqishme”.

Për këtë, ai po mbron bastet e tij. Altman është bërë gjithashtu një përkrahës i zëshëm i një sërë formash të të ardhurave bazë universale, duke argumentuar se do të jetë gjithnjë e më e rëndësishme të përpunohet se si të ndahen në mënyrë të barabartë përfitimet e përparimit të inteligjencës artificiale gjatë një periudhe kur ndërprerja afatshkurtër mund të jetë e rëndë.

Kjo është ajo që projekti i tij anësor, një startup i kriptove i quajtur Worldcoin, është fokusuar. Ai ka vendosur të skanojë irisin e çdo personi në Tokë, në mënyrë që të ndërtojë një të ardhur bazë universale të bazuar në kriptovaluta. Por kjo nuk është qasja e tij e vetme.

“Ndoshta është e mundur që komponenti më i rëndësishëm i pasurisë në të ardhmen të jetë qasja në këto sisteme – në këtë rast, ju mund të mendoni për rishpërndarjen e vetë asaj”.

Gjithçka kthehet në qëllimin për të krijuar një botë ku superinteligjenca funksionon për ne dhe jo kundër nesh.

Një herë, sipas Altman, vizioni i tij për të ardhmen ishte që ne do të njihnim nga trillimet shkencore.

“Mënyra që mendoja për të shkuar drejt superinteligjencës është se ne do të ndërtonim këtë sistem jashtëzakonisht të aftë. Kishte një sërë sfidash sigurie me këtë, dhe ishte një botë që do të ndihej mjaft e paqëndrueshme”.

Nëse OpenAI aktivizon versionin e tij të fundit të ChatGPT dhe zbulon se është më i zgjuar se i gjithë njerëzimi së bashku, atëherë është e lehtë të fillojë të hartojë një grup rezultatesh mjaft nihiliste.

Kushdo që arrin të marrë kontrollin e sistemit mund ta përdorë atë për të marrë kontrollin e botës dhe do të ishte e vështirë të rrëzohej përveç nga vetë sistemi.

Tani, Altman po sheh një kurs më të qëndrueshëm.

“Tani shohim një rrugë ku ndërtojmë këto mjete që bëhen gjithnjë e më të fuqishme. Dhe, ka miliarda ose triliona kopje që përdoren në botë, duke ndihmuar njerëzit të jenë shumë më efektivë, të aftë për të bërë shumë më tepër”.

“Sasia e prodhimit që një person mund të ketë mund të rritet në mënyrë dramatike dhe aty ku shfaqet superinteligjenca nuk është vetëm aftësia e rrjetit tonë më të madh të vetëm nervor, por e gjithë shkenca e re që po zbulojmë, të gjitha gjërat e reja që po krijojmë”.

Nëse qeveritë në mbarë botën vendosin të veprojnë së bashku për të kufizuar zhvillimin e inteligjencës artificiale, siç kanë bërë në fusha të tjera, si klonimi njerëzor ose kërkimi i armëve biologjike, ato mund të jenë në gjendje ta bëjnë këtë.

Por kjo do të ishte të heqësh dorë nga gjithçka që është e mundur.

Marrë nga “The Guardian”, përshtatur për “Albanian Post”.

Shkarkimi dhe publikimi i teksteve nga Albanian Post nuk lejohet pa përmendur burimin. Faleminderit për respektimin e etikës së profesionit të gazetarit.

/Albanianpost.com


Lajmet kryesore