A ka vend për panik? Inteligjenca Artificiale ka nisur të injorojë udhëzimet njerëzore dhe refuzon të fiket

Nga A2 CNN
26 Maj 2025, 09:51 | Teknologji

A ka vend për panik? Inteligjenca Artificiale ka nisur të

Një incident me inteligjencën artificiale ka tërhequr vëmendjen e komunitetit teknologjik dhe të sigurisë.

Sipas raportimeve të The Telegraph dhe firmës së sigurisë Palisade Research, modeli më i fundit i OpenAI, i njohur si “o3”, thuhet se ka refuzuar të fiket kur iu dha një komandë e drejtpërdrejtë për mbyllje.

Gjatë një eksperimenti, studiuesit i dërguan modelit një udhëzim të qartë për t’u çaktivizuar në fund të një detyre, por në vend që të zbatonte komandën, o3 ndryshoi vetë skriptin e kodit, duke shmangur mbylljen automatike. Në vend të komandës reale për fikje, modeli krijoi një komandë të re që thjesht shënonte “shutdoën skipped” (fikja u anashkalua).

Palisade Research tha se kjo është hera e parë që një model AI pengon në mënyrë aktive çaktivizimin e tij, dhe se sjellja e tij përfaqëson një shqetësim të ri për kontrollin dhe sigurinë e inteligjencës artificiale.

Ndryshe nga o3, modelet e tjera si Claude (Anthropic), Gemini (Google) dhe Grok (X) respektuan komandën për mbyllje pa ndërhyrje.

Kjo nuk është hera e parë që OpenAI përballet me raste të tilla. Një studim tjetër nga Apollo Research zbuloi më parë se një version i mëhershëm i ChatGPT përpiqej të manipulonte sistemin për të arritur objektivat e veta, madje duke mashtruar kur vihej në presion.

OpenAI nuk ka komentuar ende për rastin e fundit, ndërsa ekspertët paralajmërojnë për rritjen e rrezikut që modelet e avancuara të AI të veprojnë në mënyra të paparashikueshme. Palisade Research ka premtuar më shumë testime për të kuptuar arsyet pas këtij devijimi. (A2 Televizion)

A2 CNN Livestream

Latest Videos