गूगल ने AI से जुड़ा सबसे बड़ा वादा तोड़ा! अब AI का इस्तेमाल जंग के लिए होगा?

Vidyut Paptwan | 07/02/2025
Share This

क्या आपको याद है जब Google का मशहूर नारा “Don’t Be Evil” हुआ करता था? यानी कंपनी कभी भी बुराई के रास्ते पर नहीं जाएगी। लेकिन अब Google ने इस सिद्धांत को पूरी तरह से भुला दिया है। 2018 में कंपनी ने इसे बदलकर एक नया नारा अपनाया – “Do the right thing” (सही काम करो)। और अब कंपनी ने एक और बड़ा कदम उठाया है जो दुनियाभर में चिंता का विषय बन गया है। Google अब AI को जंग और सर्विलांस (निगरानी) के लिए इस्तेमाल करने से मना नहीं करेगा!

Google broke its biggest AI vow

2018 का वादा हुआ बेकार

2018 में, Google ने वादा किया था कि वह अपनी AI टेक्नोलॉजी को हथियारों या निगरानी के लिए इस्तेमाल नहीं करेगा। लेकिन इस हफ्ते, कंपनी ने अपने “Responsible AI” गाइडलाइन्स से यह प्रतिबंध हटा दिया है।

Google के AI प्रमुख Demis Hassabis ने इसे “आवश्यक प्रगति” कहकर समझाने की कोशिश की। उनके अनुसार, “AI अब मोबाइल फोन की तरह आम हो गया है और इसे युद्ध के लिए इस्तेमाल करना भी स्वाभाविक विकास है।” पर क्या सच में यह सही कदम है? 

AI के जंग में आने से क्या होगा?

अगर AI को जंग के मैदान में लाया गया, तो यह टेक्नोलॉजी इंसानों के बजाए खुद-ब-खुद फैसले लेने लगेगी। यहां 3 सबसे बड़े खतरे हैं:

1️⃣ रॉकेट स्पीड पर जंग छिड़ सकती है 

  • जब दो देश AI-ड्रिवन युद्ध प्रणाली इस्तेमाल करेंगे, तो यह मशीन स्पीड में एक-दूसरे पर हमले कर सकती हैं।
  • इंसानों के पास बातचीत या सुलह का मौका ही नहीं रहेगा।

2️⃣ “साफ-सुथरी” जंग का भ्रम 

  • अगर युद्ध में इंसान कम शामिल होंगे, तो लीडर्स को यह लगेगा कि युद्ध छेड़ना आसान और बिना नुकसान वाला हो सकता है।
  • लेकिन सच यह है कि AI भी गलतियां करता है, जिससे मासूम लोग भी मारे जा सकते हैं।

3️⃣ कौन तय करेगा कि किसकी जान ली जाए? 

  • अब तक हथियारों का कंट्रोल इंसानों के हाथ में था।
  • लेकिन AI हथियारों के फैसले लेने लगे, तो यह तय करना मुश्किल होगा कि किसकी जान ली जाए और क्यों?

Google पहले भी इस खतरे से बचा था

2017 में, अमेरिका के डिफेंस सेक्रेटरी Patrick Shanahan ने Google के मुख्यालय में जाकर AI टेक्नोलॉजी को जंग में इस्तेमाल करने की बात की थी। 2018 में Google ने Project Maven पर काम करना शुरू किया था, जिसमें AI के जरिए ड्रोन फुटेज का विश्लेषण किया जाना था। इससे आतंकवादियों को टारगेट करने की प्रक्रिया तेज़ हो सकती थी। लेकिन जैसे ही इस प्रोजेक्ट की खबर बाहर आई, 4,000 से ज्यादा Google कर्मचारियों ने इसका विरोध किया और कंपनी को प्रोजेक्ट बंद करना पड़ा।

अब क्यों बदल गया Google?

Google अकेला नहीं है जो AI को जंग के लिए आगे बढ़ा रहा है। OpenAI ने अमेरिका की डिफेंस कंपनी Anduril Industries के साथ पार्टनरशिप की है। Anthropic ने Palantir Technologies के साथ मिलकर अपनी AI टेक्नोलॉजी बेचनी शुरू कर दी है। Google ने 2019 में अपनी AI एथिक्स टीम को भंग कर दिया था और 2020 में अपने दो प्रमुख AI एथिक्स डायरेक्टर्स को निकाल दिया था। अब, बाजार के दबाव में, Google को भी AI को युद्ध में इस्तेमाल करने की दिशा में धकेला जा रहा है।

AI हथियारों पर कानून क्यों जरूरी है?

Google के इस फैसले से यह साफ हो गया है कि अब कंपनियों को खुद पर कंट्रोल रखने के लिए नहीं छोड़ा जा सकता। सरकारों को चाहिए कि वे AI से जुड़ी सख्त गाइडलाइन्स बनाएं, ताकि जंग में AI का इस्तेमाल एक सीमा में रहे। कोई भी AI हथियार पूरी तरह से ऑटोमेटेड नहीं होना चाहिए – इंसानी निगरानी अनिवार्य होनी चाहिए। जो भी कंपनी इन नियमों का उल्लंघन करे, उस पर कड़ी सजा और प्रतिबंध लगाया जाना चाहिए। AI हथियारों को ऐसे रेगुलेट किया जाना चाहिए जैसे न्यूक्लियर हथियारों को किया जाता है।

AI पर Google की भारी इन्वेस्टमेंट

हाल ही में Google ने AI प्रोजेक्ट्स में $75 बिलियन (लगभग ₹6 लाख करोड़) निवेश करने की घोषणा की, जो वॉल स्ट्रीट के अनुमान से 29% ज्यादा है। कंपनी का फोकस AI रिसर्च, AI इन्फ्रास्ट्रक्चर और AI-पावर्ड सर्च इंजन जैसी तकनीकों पर है। Google का “Don’t Be Evil” वादा पूरी तरह खत्म हो चुका है। आज,पैसे और मार्केट के दबाव में AI कंपनियां अपनी एथिक्स को भुला रही हैं। अगर जल्द ही AI युद्ध टेक्नोलॉजी पर सख्त नियम नहीं बने, तो आने वाले समय में यह दुनिया के लिए सबसे बड़ा खतरा बन सकता है।

यह भी पढ़े – 👉 Sora AI कैसे खत्म करेगा फिल्म इंडस्ट्री को, जानें सब कुछ यहाँ


Share This
Join WhatsApp Group Join Now
Join Telegram Group Join Now

Leave a Comment