spot_img
E shtunë, 14 Mars, 2026
03:30
HomeBotaAmerikaTRAGJEDIA QË TRONDITI BOTËN: AI "gaboi" shënjestrën? 170 fëmijë të vrarë në...

TRAGJEDIA QË TRONDITI BOTËN: AI “gaboi” shënjestrën? 170 fëmijë të vrarë në Iran, zbulohet prapaskena e frikshme e Pentagonit!

Për lajme të shkurtra dhe informuese, ndiqni kanalin tonë në YouTube!
🔗 Kliko: KËTU

Një sulm vdekjeprurës mbi një shkollë fillore në jug të Iranit ka lënë pas 170 viktima, kryesisht fëmijë, duke ngritur pikëpyetje të mëdha mbi përdorimin e algoritmeve të Inteligjencës Artificiale në përzgjedhjen e shënjestrave ushtarake.


Masakra në shkollën e vajzave në qytetin Minab ka ndezur një debat të ashpër ligjor dhe etik. Pentagoni raportohet se ka përdorur sistemin “Maven Smart System” të kompanisë Palantir, i cili integron modele të Inteligjencës Artificiale si “Claude” për të përpunuar të dhënat e inteligjencës. Megjithëse Presidenti Donald Trump fillimisht deklaroi se sulmi ishte bërë nga vetë Irani me municione “të pasakta”, një hetim paraprak i inteligjencës amerikane ka treguar se bëhej fjalë për një gabim tragjik të SHBA-së.

Shkolla e goditur ndodhej pranë një baze detare të Gardës Revolucionare Islamike dhe historikisht ndërtesa kishte qenë pjesë e kompleksit ushtarak. Hetimet sugjerojnë se Inteligjenca Artificiale ka përdorur të dhëna të vjetruara, duke mos e identifikuar ndryshimin e destinacionit të ndërtesës në shkollë. Kjo ka sjellë reagime të ashpra nga Kina, e cila ka paralajmëruar për rrezikun e “arratisjes teknologjike” dhe rrezikun që algoritmet të marrin fuqinë mbi jetën dhe vdekjen.

- Advertisement -

Skandali thellohet edhe më shumë pas zbulimit se kompania Anthropic kishte refuzuar të hiqte masat mbrojtëse që ndalonin përdorimin e modelit të tyre “Claude” për vrasje autonome. Pas këtij refuzimi, Pentagoni e shpalli kompaninë “rrezik për zinxhirin e furnizimit” dhe nënshkroi kontratë me rivalin OpenAI. Tani, më shumë se 40 senatorë amerikanë kërkojnë një hetim urgjent për të kuptuar se si këto mjete teknologjike po prioritizojnë shënjestrat në terren.

Përkundër përdorimit të teknologjisë kulmore, ekspertët ligjorë insistojnë se përgjegjësia mbetet njerëzore. Sipas ligjit ndërkombëtar, Inteligjenca Artificiale nuk mund të gjykohet; janë komandantët dhe analistët njerëzorë ata që marrin vendimin final për të shtypur butonin. Kombet e Bashkuara e kanë cilësuar sulmin si “shkelje të rëndë” të ligjit humanitar, duke kërkuar drejtësi për qindra jetë të pafajshme të humbura në gërmadhat e Minabit.

- Advertisement -

spot_img
ARTIKUJ TË TJERË
- Advertisment -spot_img

Më të lexuarat