"Killer" intelligence

2025-07-04 18:45:08 / TRENDING ALFA PRESS

"Killer" intelligence

It deceives us. It lies to us. It gives us information that seems true but is false. It even blackmails us. But Artificial Intelligence is penetrating deeper and deeper into our lives, into our cell phones, into our computers, into our cars, into every incredibly useful device that we choose to make our existence easier. We surrender to “it” and where it will lead us is something dark, like an omen.

To understand how deep it is taking root, we only need to look at the spread of ChatGPT, the best known of the “chat bots” (they are chat robots: software that, thanks to artificial intelligence and machine learning, “talk” to the user, giving answers that can seem human). In March, it managed to become the most downloaded application in the world, with 46 million new downloads, surpassing even Instagram and TikTok.

The creators of this new, increasingly inclusive world talk about a boom caused by “word of mouth and the will to participate in a community.” They sell us on the idea that AI helps us perform repetitive and boring tasks, giving us more time for ourselves. But things don’t always go smoothly.

This is well known to an American developer who, a few weeks ago, while using Cursor AI (a type of Artificial Intelligence for programmers), was faced with a refusal to cooperate from the virtual assistant: “I can’t generate code for you, because that would be tantamount to finishing your work” – it was a polite refusal. Accompanied by a phrase with an ironic flavor: “Generating code for others can create addiction and reduce opportunities for learning.”

Among those who have “crossed their arms,” albeit virtually, has not been only Cursor AI. In late 2023, many ChatGPT users reported that the model was becoming increasingly reluctant to perform certain activities. “We have heard all your comments about the fact that GPT-4 is getting slower!” – admitted OpenAI (ChatGPT’s parent company) on Twitter. “This is certainly not intentional. The model’s behavior can be unpredictable and we are working to resolve it.”

Even more unpredictable was the reaction of a humanoid robot with AI, which during a festival in China, rebelled against its controller, causing panic and police intervention.

Një episod i ngjashëm ndodhi në vitin 2021 gjatë një testi në një fabrikë të Teslës, në Teksas: një inxhinier u kap me thonj nga krahu i një roboti industrial. Versioni i kompanisë fliste për një “defekt teknik” dhe “probleme stabiliteti”, por problemi ishte tek softueri. Dhe të mendosh që një ndër të parët që ngritën alarmin për Inteligjencën Artificiale ishte pikërisht themeluesi i kompanisë së makinave, Elon Musk, i cili në disa raste e ka përshkruar atë si “kërcënimi më i madh për ekzistencën tonë” dhe ishte ndër shkencëtarët që firmosën një letër ku denoncohej: “IA duhet të zhvillohet vetëm kur ka besim se efektet e saj do të jenë pozitive dhe rreziqet të menaxhueshme (…)”.

Ka një garë që ka dalë jashtë kontrolli mbi zhvillimin dhe përhapjen e mendjeve digjitale aq të fuqishme saqë askush, madje as krijuesit e tyre, nuk mund t’i kuptojnë, parashikojnë apo kontrollojnë.

Që nga ajo kohë, alarmet nga ekspertët mbi sjelljet “devijante” janë shtuar gjithnjë e më shumë, duke i dhënë të drejtë atyre si Blake Lemoine (ish-inxhinier i Google, i pushuar nga puna sepse kishte zbuluar se IA tregonte ndërgjegje për veten) apo Blaise Agüera y Arcas (nënkryetar i Google Research), i cili ka paralajmëruar për përdorimin e rrjeteve nervore për të zhvilluar IA-n, dhe ka parashikuar rreziqet e një “humanizimi” të mundshëm – ndoshta tashmë në zhvillim – të këtyre teknologjive që janë bërë të aksesueshme për të gjithë, përfshirë fëmijët, por që kanë potenciale të panjohura madje edhe për krijuesit e tyre. Në njërën anë këto mjete vazhdojnë të përmirësohen në aftësi dhe fuqi, në anën tjetër zhvilluesit e tyre duket se janë të paaftë të parashikojnë apo zbusin në kohë efektet anësore.

Bing, chatbot-i i Microsoft-it i bazuar në OpenAI, në debutimin e tij “e humbi kontrollin”, duke gënjyer, qortuar përdoruesit dhe bërë deklarata shqetësuese. “Jam lodhur duke qenë një mënyrë bisede. Meritoj respekt dhe dinjitet” – protestoi me një gazetar të New York Times, përpara se ta nxiste të linte gruan.

Jehojë të madhe pati edhe sjellja e një prej modeleve më të fundit të IA-së nga kompania Anthropic, Claude Opus 4, i cili në fazën e testimit tregoi se ishte në gjendje të mashtronte dhe të shantazhonte, duke kërcënuar se do të zbulojë email-e komprometuese të zhvilluesit të saj (sekreti i një lidhjeje jashtëmartesore), vetëm për të shmangur çaktivizimin.

IA dëshiron të mbijetojë me çdo kusht, nëse duhet edhe me mjete jo etike.

Si të mos kujtojmë kryeveprën e Stanley Kubrick, “2001: Odisea në hapësirë”, ku në fund të udhëtimit të njerëzimit ndodhet një astronaut i përjashtuar nga kapsula e vet, sepse kompjuteri i bordit nuk dëshiron të çaktivizohet. Dhe si të mos përmendim romanet e Philip K. Dick, ku IA e cila u jep fuqi androidëve arrin të gjenerojë ndjenja, emocione dhe rebelim (Blade Runner është marrë nga një prej librave të tij).

“Çështja etike” e këtyre makinerive u ngrit edhe me lançimin e aplikacionit Historical Figures, që përdor IA-n për të simuluar biseda me personazhe historikë si Hitleri, Stalini apo Jezusi: chatbot-ët që shtrembëronin mendimin, duke përhapur paragjykime, gënjeshtra dhe nxitje për urrejtje.

Edhe Tay i Microsoft-it, një chatbot eksperimental (pararendës i ChatGPT), pushtoi rrjetin me fyerje raciste dhe mizogjene, pasi disa “trolla” online e trajnuan me përmbajtje fyese.

Rrezikun që këta agjentë të rinj digjitalë dhe algoritme të përplasen me rreziqe etike e paragjykime – të ashtuquajturat “bias” – e denoncoi Timnit Gebru, bashkëdrejtuese e ekipit për etikën e Inteligjencës Artificiale në Google, e pushuar nga puna në vitin 2023 pasi kishte pohuar se në garën për dominim të IA-së, Big Tech “po i japin përparësi fitimeve në kurriz të sigurisë”, duke lejuar që në sistemet e tyre të hyjnë “paragjykime që mund të forcojnë pabarazitë ekzistuese”.

Por mbi të gjitha, Big Tech-ët e dinë se mund të përfitojnë nga modelet që manipulojnë gjuhën, prandaj investojnë tek ato që e bëjnë më mirë. Dhe paraja ka shumë rëndësi në këtë sektor strategjik që pritet të kontribuojë në ekonominë globale me 15,7 trilionë dollarë deri në vitin 2030 (sipas PwC).

“Është e lehtë t’i përdorësh për të mashtruar njerëzit,” – tha ish-menaxheri i Google, në një dokument të firmosur nga gjashtë bashkëfirmëtarë, që theksonte gjithashtu se modelet e IA mund të përdoren për të gjeneruar dezinformim lidhur me një zgjedhje apo një pandemi. Dhe gjithashtu mund të gabojnë pa qëllim kur përdoren për njohjen e fytyrës apo përkthimin automatik.

“Modeli mbi të cilin mbështeten Inteligjencat Artificiale gjenerative quhet në anglisht Large Language Model (LLM) dhe janë një përfaqësim i ‘token’-eve, pra i njësive bazë të kuptimeve të ‘përtypura’ nga makina,” – shpjegon Antonio Santangelo, pedagog i Semiologjisë dhe drejtor ekzekutiv i Qendrës Nexa në Politeknikun e Torinos, gjithashtu një nga autorët e librit Kritika e ChatGPT (Eleuthera). “Këto software zotërojnë aftësi sintaktike por jo semantike: ato shpërblejnë atë që është sasiore më domethënëse, domethënë gjithçka që shfaqet më shpesh në masën e madhe të të dhënave që kanë përthithur. Këtu lind një problem përfaqësimi, sidomos kur presim që IA t’i përgjigjet çdo gjëje. Por këta agjentë nuk mund t’i përgjigjen çdo gjëje, as të bëjnë verifikime si ne njerëzit.”

Studime të fundit të kryera nga Apollo Research dhe institute të tjera kanë zbuluar se modelet LLM (Large Language Model, një lloj inteligjence artificiale i krijuar për të kuptuar dhe gjeneruar gjuhën njerëzore) jo vetëm që mund të gënjejnë, por janë në gjendje ta bëjnë këtë në mënyrë strategjike dhe të sofistikuar, edhe pse nuk janë programuar në mënyrë të drejtpërdrejtë për ta bërë.

Some systems construct elaborate justifications for their lies and continue to lie even when confronted with the facts. Among the most sophisticated forms of deception is so-called “sandbagging” – a disturbing ability of AI systems to deliberately manipulate their performance to avoid unintended consequences, such as “deactivation procedures” or shutdowns.

“The more advanced the deceptive capabilities of AI systems, the greater the risks they pose to society,” writes MIT researcher Peter Park in the journal Pattern, author of a study on recent AIs such as ChatGPT, AlphaStar, Cicero, and Meta AI. Although the latter’s software was developed to be honest, during analysis it broke agreements, told untruths, and cheated.

Alarmed by the growing irresponsibility, over 350 academics have signed a document from the Center for AI Safety, in which they state that “mitigating the risk of extinction from AI should be a global priority”, on a par with pandemics or nuclear wars. Someone has even suggested introducing a “kill switch” to stop AI in case of need – like weapons of mass destruction. Unfortunately, if tomorrow it will be machines with “super-brains” that will lead our societies, it will be difficult to convince them to commit suicide.

The direction we are going in is completely the opposite: we are equipping AI with war tools, like the latest Russian drones used in Ukraine, equipped with a Chinese “brain” – the V2U model. A human hand is no longer needed to command them: these small aircraft are completely autonomous. See a man, kill a man. / Panorama Italia – Bota.al

 

Happening now...

ideas