क्या आपको याद है जब Google का मशहूर नारा “Don’t Be Evil” हुआ करता था? यानी कंपनी कभी भी बुराई के रास्ते पर नहीं जाएगी। लेकिन अब Google ने इस सिद्धांत को पूरी तरह से भुला दिया है। 2018 में कंपनी ने इसे बदलकर एक नया नारा अपनाया – “Do the right thing” (सही काम करो)। और अब कंपनी ने एक और बड़ा कदम उठाया है जो दुनियाभर में चिंता का विषय बन गया है। Google अब AI को जंग और सर्विलांस (निगरानी) के लिए इस्तेमाल करने से मना नहीं करेगा!

2018 का वादा हुआ बेकार
2018 में, Google ने वादा किया था कि वह अपनी AI टेक्नोलॉजी को हथियारों या निगरानी के लिए इस्तेमाल नहीं करेगा। लेकिन इस हफ्ते, कंपनी ने अपने “Responsible AI” गाइडलाइन्स से यह प्रतिबंध हटा दिया है।
Google के AI प्रमुख Demis Hassabis ने इसे “आवश्यक प्रगति” कहकर समझाने की कोशिश की। उनके अनुसार, “AI अब मोबाइल फोन की तरह आम हो गया है और इसे युद्ध के लिए इस्तेमाल करना भी स्वाभाविक विकास है।” पर क्या सच में यह सही कदम है?
AI के जंग में आने से क्या होगा?
अगर AI को जंग के मैदान में लाया गया, तो यह टेक्नोलॉजी इंसानों के बजाए खुद-ब-खुद फैसले लेने लगेगी। यहां 3 सबसे बड़े खतरे हैं:
1️⃣ रॉकेट स्पीड पर जंग छिड़ सकती है
- जब दो देश AI-ड्रिवन युद्ध प्रणाली इस्तेमाल करेंगे, तो यह मशीन स्पीड में एक-दूसरे पर हमले कर सकती हैं।
- इंसानों के पास बातचीत या सुलह का मौका ही नहीं रहेगा।
2️⃣ “साफ-सुथरी” जंग का भ्रम
- अगर युद्ध में इंसान कम शामिल होंगे, तो लीडर्स को यह लगेगा कि युद्ध छेड़ना आसान और बिना नुकसान वाला हो सकता है।
- लेकिन सच यह है कि AI भी गलतियां करता है, जिससे मासूम लोग भी मारे जा सकते हैं।
3️⃣ कौन तय करेगा कि किसकी जान ली जाए?
- अब तक हथियारों का कंट्रोल इंसानों के हाथ में था।
- लेकिन AI हथियारों के फैसले लेने लगे, तो यह तय करना मुश्किल होगा कि किसकी जान ली जाए और क्यों?
Google पहले भी इस खतरे से बचा था
2017 में, अमेरिका के डिफेंस सेक्रेटरी Patrick Shanahan ने Google के मुख्यालय में जाकर AI टेक्नोलॉजी को जंग में इस्तेमाल करने की बात की थी। 2018 में Google ने Project Maven पर काम करना शुरू किया था, जिसमें AI के जरिए ड्रोन फुटेज का विश्लेषण किया जाना था। इससे आतंकवादियों को टारगेट करने की प्रक्रिया तेज़ हो सकती थी। लेकिन जैसे ही इस प्रोजेक्ट की खबर बाहर आई, 4,000 से ज्यादा Google कर्मचारियों ने इसका विरोध किया और कंपनी को प्रोजेक्ट बंद करना पड़ा।
अब क्यों बदल गया Google?
Google अकेला नहीं है जो AI को जंग के लिए आगे बढ़ा रहा है। OpenAI ने अमेरिका की डिफेंस कंपनी Anduril Industries के साथ पार्टनरशिप की है। Anthropic ने Palantir Technologies के साथ मिलकर अपनी AI टेक्नोलॉजी बेचनी शुरू कर दी है। Google ने 2019 में अपनी AI एथिक्स टीम को भंग कर दिया था और 2020 में अपने दो प्रमुख AI एथिक्स डायरेक्टर्स को निकाल दिया था। अब, बाजार के दबाव में, Google को भी AI को युद्ध में इस्तेमाल करने की दिशा में धकेला जा रहा है।
AI हथियारों पर कानून क्यों जरूरी है?
Google के इस फैसले से यह साफ हो गया है कि अब कंपनियों को खुद पर कंट्रोल रखने के लिए नहीं छोड़ा जा सकता। सरकारों को चाहिए कि वे AI से जुड़ी सख्त गाइडलाइन्स बनाएं, ताकि जंग में AI का इस्तेमाल एक सीमा में रहे। कोई भी AI हथियार पूरी तरह से ऑटोमेटेड नहीं होना चाहिए – इंसानी निगरानी अनिवार्य होनी चाहिए। जो भी कंपनी इन नियमों का उल्लंघन करे, उस पर कड़ी सजा और प्रतिबंध लगाया जाना चाहिए। AI हथियारों को ऐसे रेगुलेट किया जाना चाहिए जैसे न्यूक्लियर हथियारों को किया जाता है।
AI पर Google की भारी इन्वेस्टमेंट
हाल ही में Google ने AI प्रोजेक्ट्स में $75 बिलियन (लगभग ₹6 लाख करोड़) निवेश करने की घोषणा की, जो वॉल स्ट्रीट के अनुमान से 29% ज्यादा है। कंपनी का फोकस AI रिसर्च, AI इन्फ्रास्ट्रक्चर और AI-पावर्ड सर्च इंजन जैसी तकनीकों पर है। Google का “Don’t Be Evil” वादा पूरी तरह खत्म हो चुका है। आज,पैसे और मार्केट के दबाव में AI कंपनियां अपनी एथिक्स को भुला रही हैं। अगर जल्द ही AI युद्ध टेक्नोलॉजी पर सख्त नियम नहीं बने, तो आने वाले समय में यह दुनिया के लिए सबसे बड़ा खतरा बन सकता है।
यह भी पढ़े – 👉 Sora AI कैसे खत्म करेगा फिल्म इंडस्ट्री को, जानें सब कुछ यहाँ