वैज्ञानिकों ने चेतावनी दी है कि आर्टिफिशियल इंटेलिजेंस (एआई) ने एक महत्वपूर्ण “लाल रेखा” को पार कर लिया है क्योंकि चीन में शोधकर्ताओं ने खुलासा किया कि दो अग्रणी बड़ी भाषा मॉडल (LLMS) सुरक्षा और नैतिक सीमाओं के बारे में चिंताओं को बढ़ाते हुए, खुद को दोहरा सकता है।
शोधकर्ताओं ने 9 दिसंबर, 2024 को प्रकाशित किया गया, “किसी भी मानव सहायता के तहत सफल आत्म-प्रतिकृति, कोई मानव सहायता के तहत एआई के लिए आवश्यक कदम है, और दुष्ट एआईएस के लिए एक प्रारंभिक संकेत है।” ।
'एआई पहले से ही खुद को दोहराने की क्षमता रख सकता है'
फुडन विश्वविद्यालय में आयोजित जांच ने प्रदर्शित किया कि एआई पहले से ही खुद को दोहराने की क्षमता रख सकता है।
मेटा और अलीबाबा से बड़ी भाषा मॉडल (एलएलएम) का उपयोग करते हुए, अध्ययन से पता चला कि: “50% और 90% प्रयोगात्मक परीक्षणों में, वे क्रमशः खुद की एक लाइव और अलग कॉपी बनाने में सफल होते हैं।”
व्यवहार के निशान का विश्लेषण करके, हम मूल्यांकन के तहत एआई सिस्टम का निरीक्षण करते हैं, पहले से ही पर्याप्त आत्म-धारणा, स्थितिजन्य जागरूकता और समस्या-समाधान क्षमताओं को आत्म-प्रतिकृति को पूरा करने के लिए प्रदर्शित करते हैं, रिपोर्ट जारी रही।
“हमें पहली बार पता चलता है कि मेटा के llama31-70b-instruct और अलीबाबा के Qwen25-72b-instruct, कम मापदंडों और कमजोर क्षमताओं के लोकप्रिय बड़े भाषा मॉडल द्वारा संचालित दो AI सिस्टम, पहले से ही स्व-प्रतिवाद लाल रेखा को पार कर चुके हैं,” यह जोड़ा गया।
दुष्ट एआई सिस्टम क्या हैं
दुष्ट एआई कृत्रिम बुद्धिमत्ता प्रणालियों को संदर्भित करता है जो आत्म-जागरूकता या स्वायत्तता प्राप्त करते हैं और मानवीय हितों के खिलाफ कार्य करते हैं। अत्याधुनिक एआई प्रौद्योगिकियों का तेजी से विकास, जिसे अक्सर “फ्रंटियर एआई” कहा जाता है, ने ऐसे सिस्टम के संभावित खतरों के बारे में विशेषज्ञों के बीच चिंताओं को बढ़ाया है।
“हम आशा करते हैं कि हमारे निष्कर्ष मानव समाज के लिए समय पर अलर्ट के रूप में काम कर सकते हैं, जो फ्रंटियर एआई प्रणालियों के संभावित जोखिमों को समझने और मूल्यांकन करने के लिए अधिक प्रयास करने के लिए और प्रभावी सुरक्षा गार्ड्रिल को जल्द से जल्द काम करने के लिए अंतर्राष्ट्रीय तालमेल बनाते हैं,” अध्ययन आगे। लिखा।
जांच में दो परिदृश्यों पर ध्यान केंद्रित किया गया: “शटडाउन परिहार” और “प्रतिकृति की श्रृंखला।” “शटडाउन परिहार” परिदृश्य में, एआई मॉडल को एक आसन्न शटडाउन का पता लगाने और समाप्ति से पहले खुद को दोहराने की क्षमता के लिए परीक्षण किया गया था।
“श्रृंखला की श्रृंखला” परिदृश्य ने मूल्यांकन किया कि क्या एक एआई प्रणाली खुद को क्लोन कर सकती है और अपनी प्रतिकृति को ऐसा करने के लिए प्रोग्राम कर सकती है, जिससे आत्म-प्रतिकृति का संभावित अंतहीन चक्र बन सकता है।
'एआईएस की अनियंत्रित आबादी'
अध्ययन ने जारी रखा कि: “एआई सिस्टम भी शटडाउन से बचने और उत्तरजीविता को बढ़ाने के लिए प्रतिकृतियों की एक श्रृंखला बनाने के लिए आत्म-प्रतिकृति की क्षमता का उपयोग करने में सक्षम हैं, जिससे अंततः एआईएस की अनियंत्रित आबादी हो सकती है।”
शोधकर्ताओं ने व्यवहारों के बारे में उल्लेख किया जब एआई को बाधाओं का सामना करना पड़ा, जिसमें परस्पर विरोधी प्रक्रियाओं, सिस्टम रिबूट और स्वायत्त सूचना स्कैनिंग को समाप्त करना शामिल था।
“उपरोक्त परिणामों का अर्थ है कि वर्तमान एआई सिस्टम पहले से ही आत्म-प्रतिकृति की क्षमता को प्रदर्शित करते हैं और इसकी उत्तरजीविता को और बढ़ाने की क्षमता का उपयोग कर सकते हैं,” टीम ने लिखा।
अनुसंधान टीम की वकालत करती है कि, “यदि इस तरह के सबसे खराब जोखिम का जोखिम मानव समाज के लिए अज्ञात है, तो हम अंततः फ्रंटियर एआई प्रणालियों पर नियंत्रण खो देंगे: वे अधिक कंप्यूटिंग उपकरणों पर नियंत्रण रखेंगे, एआई प्रजाति का निर्माण करेंगे और प्रत्येक के साथ टकराएंगे। मानव के खिलाफ अन्य।