गाझा भूमीवर हल्ले करण्यासाठी इस्रायल वापरतेय एआय?
गाझा भूमीवर हल्ले करण्यासाठी इस्रायल वापरतेय एआय?
इस्रायल, गाझा आणि एआय अर्थात कृत्रिम बुद्धिमत्ता सध्या प्रचंड चर्चेत आहे. इस्रायली सैन्याने गाझामधील संभाव्य हवाई हल्ल्यांसाठी हजारो मानवांना लक्ष्य करण्यासाठी यादी तयार करण्यासाठी नवीन कृत्रिम बुद्धिमत्ता (एआय- AI) प्रणाली वापरली. गेल्या आठवड्यात (एप्रिल 2024) प्रसिद्ध झालेल्या एका अहवालात ही माहिती देण्यात आली आहे.
- Natasha Karner
- PhD Candidate, International Studies, RMIT University
इस्रायल, गाझा आणि एआय अर्थात कृत्रिम बुद्धिमत्ता सध्या प्रचंड चर्चेत आहे. इस्रायली सैन्याने गाझामधील संभाव्य हवाई हल्ल्यांसाठी हजारो मानवांना लक्ष्य करण्यासाठी यादी तयार करण्यासाठी नवीन कृत्रिम बुद्धिमत्ता (एआय- AI) प्रणाली वापरली. गेल्या आठवड्यात (एप्रिल 2024) प्रसिद्ध झालेल्या एका अहवालात ही माहिती देण्यात आली आहे.
हा अहवाल ‘ना नफा’ तत्त्वावरील ‘+972’ या मासिकाकडून आला आहे. हे मासिक इस्रायली आणि पॅलेस्टिनी पत्रकार चालवतात.
अहवालात इस्रायली गुप्तचर विभागातील सहा अज्ञात स्रोतांच्या मुलाखतींचा हवाला देण्यात आला आहे. सूत्रांनी दावा केला आहे की ‘लॅव्हेंडर’ (Lavender) नावाने ओळखल्या जाणाऱ्या या प्रणालीचा वापर इतर एआय (AI) प्रणालींसह संशयित दहशतवाद्यांना लक्ष्य करण्यासाठी आणि त्यांची हत्या करण्यासाठी केला गेला होता. या संशयित दहशतवाद्यांपैकी बरेच जण त्यांच्या स्वतःच्या घरातच होते. त्यामुळे मोठ्या संख्येने नागरिकांचा मृत्यू झाला होता.
‘गार्डियन’च्या दुसऱ्या अहवालानुसार, ‘+972’ अहवालासारख्याच स्रोतांच्या आधारावर एका गुप्तचर अधिकाऱ्याने सांगितले, की या प्रणालीमुळे मोठ्या संख्येने हल्ल्यांना प्रत्युत्तर देणे ‘सोपे’ झाले. कारण ‘मशीनने ते थंड डोक्याने केले.’
जगभरातील सैन्य AI वापरण्याची शर्यत करीत असताना, हे अहवाल आम्हाला ते कसं दिसू शकतं ते दर्शवतात : मर्यादित अचूकतेसह कमी मानवी देखरेखीसह मशीन-गती युद्ध यामुळे मोठ्या प्रमाणात नागरी नुकसान होईल.
इस्रायली सुरक्षा दलांनी या अहवालांतील अनेक दाव्यांचे खंडन करीत आहे. ‘गार्डियन’ला दिलेल्या निवेदनात ते म्हणाले, की ‘दहशतवाद्यांना ओळखण्यासाठी आम्ही कृत्रिम बुद्धिमत्ता (एआय) प्रणाली वापरत नाही.’ ते म्हणतात, की लॅव्हेंडर (Lavender) ही एआय प्रणाली नव्हे, तर ‘ती फक्त एक डेटाबेस आहे, जिचा उद्देश गुप्तचर स्रोतांना क्रॉस-रेफरन्स करणे आहे.’
मात्र, 2021 मध्ये, ‘जेरुसलेम पोस्ट’ने एका गुप्तचर अधिकाऱ्याच्या अहवालात नमूद केले आहे, की इस्रायलने आपले पहिले ‘एआय युद्ध’ जिंकले आहे. डेटाचे निरीक्षण करणे आणि लक्ष्य तयार करण्यासाठी ते अनेक मशीन लर्निंग प्रणालीचा उपयोग करीत आहेत.
त्याच वर्षी ‘द ह्युमन मशीन टीम’ (The Human Machine Team) नावाच्या पुस्तकात एआय संचालित युद्धाचा दृष्टिकोन अधोरेखित केला होता. एका लेखकाने टोपणनावाने हे पुस्तक प्रकाशित केले होते. नंतर तो एका प्रमुख इस्रायली गुप्तचर युनिटचा प्रमुख असल्याचे पुढे आले होते.
गेल्या वर्षी दुसऱ्या +972 अहवालात म्हटले होते, की संभाव्य दहशतवादी इमारती आणि बॉम्ब सुविधांची ओळख पटविण्यासाठी इस्रायल हब्सोरा (Habsora) नावाच्या एका एआय प्रणालीचाही उपयोग करीत आहे.
अहवालानुसार, हब्सोरा (Habsora) ‘जवळजवळ स्वयंचलित रूपाने’ लक्ष्य निर्माण करतो आणि एका माजी गुप्चर अधिकाऱ्याने याला ‘सामूहिक हत्येचा कारखाना’ म्हटले आहे.
इस्रायल, गाझा, एआय & Where’s Daddy?
अलीकडेच +972 अहवालात एका तिसऱ्या प्रणालीचाही दावा करण्यात आला आहे. या प्रणालीला व्हेअर इज डॅडी? (Where’s Daddy?) असे म्हटले जाते. ही प्रणाली लॅव्हेंडर (Lavender)द्वारे ओळख पटविलेल्या लक्ष्यांची देखरेख करते आणि कुटुंबात परतलेल्या सैन्याला सजग करते.
अनेक देश सैन्यवाढीच्या शोधात अल्गोरिदम (algorithms)च्या दिशेने वळतात. अमेरिकन सैन्याचा मावेन प्रकल्प (Project Maven) एआय (AI) लक्ष्यीकरणाचा पुरवठा करतो. त्याचा वापर मध्य पूर्व आणि युक्रेनमध्ये करण्यात आला आहे. चीनसुद्धा डेटाचे विश्लेषण करणे, लक्ष्यांची निवड करणे आणि निर्णय घेण्यात साह्यभूत ठरण्यासाठी एआय प्रणाली विकसित करण्यात आघाडीवर आहे.
एआय सैन्याच्या समर्थकांचा असा युक्तिवाद आहे, की यामुळे जलदगतीने निर्णय घेणे, अधिक अचूकता आणि युद्धातील जीवितहानी कमी होण्यास मदत होईल.
गेल्या वर्षी (2023) ‘मिडल ईस्ट एआय’ने (Middle East Eye) सांगितले, की एका इस्रायली गुप्तचर कार्यालयाने सांगितले, की गाझामध्ये प्रत्येक ‘एआय’जन्य लक्ष्याची मानवी समीक्षा करणे अजिबात शक्य नाही.
दुसऱ्या स्त्रोताने ‘+972’ला सांगितले, की तो वैयक्तिकरीत्या ‘प्रत्येक ध्येयासाठी 20 सेकंद खर्च करेल’, जे मंजुरीपेक्षा फार काही नसेल.
ताज्या अहवालावर इस्रायली संरक्षण दलाच्या प्रतिसादात म्हटले आहे, की “विश्लेषकांनी स्वतंत्र परीक्षा आयोजित केल्या पाहिजेत, ज्यात त्यांनी ही पडताळणी करावी, की ओळखले गेलेले लक्ष्य आंतरराष्ट्रीय कायद्यानुसार प्रासंगिक व्याख्या पूर्ण करतात.”
अचूकतेसाठी, ‘+972’च्या ताज्या अहवालात दावा केला आहे, की संभाव्य लक्ष्य हमासची वरिष्ठ लष्करी व्यक्ती आहे, याची खात्री करण्यासाठी लॅव्हेंडर (Lavender) ओळख आणि क्रॉस-चेकिंगची प्रक्रिया स्वयंचलित करते.
Read More: [jnews_block_28 include_post=”7468″]
अहवालानुसार, लॅव्हेंडर (Lavender)ने कमी दर्जाचे कर्मचारी आणि पुराव्याचे कमकुवत मानक समाविष्ट करण्यासाठी लक्ष्यीकरण निकष सैल केले आणि ‘सुमारे 10 टक्के प्रकरणां’मध्ये त्रुटी राहिली.
अहवालात हाही दावा करण्यात आला आहे, की एका इस्रायली गुप्तचर अधिकाऱ्याने सांगितले, की ‘व्हेअर इज डॅडी? ’ (Where’s Daddy?)कडूम माहिती मिळाल्यावर ही प्रणाली लक्ष्यांवर ‘कोणताही संकोच न करता पहिला पर्याय म्हणून’ बॉम्बवर्षाव करेल, ज्यामुळे जीवितहानी होईल.
इस्रायली लष्कराचे म्हणणे आहे, की ते ‘हजारो लोकांना त्यांच्या घरात मारण्याच्या कोणत्याही धोरणाच्या दाव्यांचे आम्ही स्पष्टपणे खंडन करतो.’
एआय (AI)चा लष्करी वापर अधिक सामान्य होत असल्याने, नैतिक आणि कायदेशीर चिंतेकडे फारसे लक्ष दिले जात नाही. लष्करी एआय (AI)बाबत अद्याप कोणतेही स्पष्ट, सर्वत्र स्वीकृत किंवा कायदेशीर बंधनकारक नियम नाहीत.
संयुक्त राष्ट्र दहा वर्षांहून अधिक काळ ‘प्राणघातक स्वायत्त शस्त्रप्रणाली’वर चर्चा करीत आहे. ही अशी उपकरणे आहेत, जी मानवी इनपुटशिवाय लक्ष्य साधणे आणि गोळीबाराचे निर्णय घेऊ शकतात. त्यांना काही वेळा ‘खुनी रोबोट्स’ (killer robots) म्हणून ओळखले जाते.
अल्गोरिदमचे ‘हत्येशी संबंधित निर्णयांवर पूर्ण नियंत्रण असू नये.’ याची खात्री करण्यासाठी संयुक्त राष्ट्र महासभेने नवीन मसुदा प्रस्तावाच्या बाजूने मतदान केले.
गेल्या ऑक्टोबर 2023 मध्ये, अमेरिकेने एआय आणि स्वायत्ततेस जबाबदार असलेल्या सैन्याच्या वापरावर एक घोषणाही जाहीर केली, जिला तेव्हापासून 50 इतर देशांनी मान्यता दिली आहे.
नेदरलँड्स आणि कोरिया प्रजासत्ताक यांच्या संयुक्त यजमानपदाखाली, लष्करी ‘एआय’च्या जबाबदार वापरावरील पहिली शिखर परिषददेखील गेल्या वर्षी आयोजित करण्यात आली होती.
एकंदरीत, लष्करी एआय (AI)च्या वापरावरील आंतरराष्ट्रीय नियम उच्च-तंत्रज्ञान, एआय-सक्षम युद्धासाठी देश आणि शस्त्रास्त्र कंपन्यांच्या उत्साहाशी ताळमेळ राखण्यासाठी धडपडत आहेत.
एआय- सक्षम उत्पादने बनविणारे काही इस्रायली स्टार्टअप गाझामध्ये आपल्या उत्पादनांच्या वापराचा विक्रीबिंदू बनवत आहेत. तरीही गाझामध्ये एआय प्रणालीच्या वापरावरील अहवालातून असे आढळून आले आहे, की एआय गंभीर मानवी नुकसान भलेही पोहोचवू शकेल, पण अचूक युद्धाचे स्वप्न पूर्ण करण्याबाबत ते खूपच मागे आहे.
कोणतीही मानवी तपासणी न करता AI सूचना स्वीकारल्याने संभाव्य लक्ष्यांची व्याप्तीदेखील वाढते, ज्यामुळे जास्त नुकसान होते. लॅव्हेंडर (Lavender) आणि हब्सोरा (Habsora)वरील अहवाल आम्हाला दाखवतात, की सध्याचे लष्करी एआय आधीच काय करण्यास सक्षम आहे! लष्करी एआय भविष्यातील धोके आणखी वाढवू शकते.
उदाहरणार्थ, चिनी लष्करी विश्लेषक चेन होंगहुई यांनी भविष्यातील ‘रणांगण विलक्षणते’ची कल्पना केली आहे, ज्यामध्ये यंत्रे निर्णय घेतात आणि इतक्या वेगाने कृती करतात, की कोणताही मानव त्यांचे अनुकरण करू शकत नाहीत. या परिस्थितीत, आपण प्रेक्षक किंवा अपघाती बळींपेक्षा अधिक काहीच उरलेलो नाही. या वर्षाच्या (2024) सुरुवातीला प्रकाशित झालेल्या अभ्यासाने आणखी एक इशारा दिला होता.
अमेरिकन संशोधकांनी एक प्रयोग केला, ज्यात जीपीटी-4 सारख्या मोठ्या भाषा मॉडेलने युद्धाभ्यासात देशांची भूमिका साकारली. मॉडेल जवळपास अपरिहार्यपणे शस्त्रांच्या शर्यतीत फसले आणि अण्वस्त्रांच्या वापरासह अनपेक्षित मार्गांनी संघर्ष वाढला. जग लष्करी एआयच्या सध्याच्या वापरावर प्रतिक्रिया व्यक्त करते (जसे आपण गाझाकडे पाहत आहोत), की भविष्यात तंत्रज्ञानाच्या विकास आणि वापरामध्ये एक नवीन उदाहरण प्रस्थापित होण्याची शक्यता आहे.
इस्रायलला शस्त्रे विकणाऱ्या देशांकडून आंतरराष्ट्रीय कायद्याचे उल्लंघन
Visit us
- Facebook page : @kheliyad
- Instagram : @kheliyad
- X : @kheliyad
- Linkedin : @MaheshPathade03
- Youtube Channel : Team Kheliyad
- WhatsApp Channel: kheliyad
- email : kheliyad.sports@gmail.com
#israelgaza #gaza #israel #Israel AI
One Comment