कृत्रिम बुद्धिमत्ता कंपनी ओपनएआई सोमवार को अपनी वेबसाइट पर प्रकाशित एक योजना के अनुसार, अपने सबसे उन्नत मॉडलों में सुरक्षा को संबोधित करने के लिए एक रूपरेखा तैयार की, जिसमें बोर्ड को सुरक्षा निर्णयों को उलटने की अनुमति देना भी शामिल है।
माइक्रोसॉफ्ट-समर्थित ओपनएआई अपनी नवीनतम तकनीक को केवल तभी तैनात करेगा जब इसे साइबर सुरक्षा और परमाणु खतरों जैसे विशिष्ट क्षेत्रों में सुरक्षित माना जाएगा। कंपनी सुरक्षा रिपोर्ट की समीक्षा करने और उन्हें कंपनी के अधिकारियों और बोर्ड को भेजने के लिए एक सलाहकार समूह भी बना रही है। जबकि अधिकारी निर्णय लेंगे, बोर्ड उन निर्णयों को उलट सकता है।
तब से चैटजीपीटी एक साल पहले लॉन्च होने के बाद, एआई के संभावित खतरे एआई शोधकर्ताओं और आम जनता दोनों के दिमाग में सबसे ऊपर रहे हैं। जेनरेटिव एआई तकनीक ने कविता और निबंध लिखने की अपनी क्षमता से उपयोगकर्ताओं को चकित कर दिया है, लेकिन गलत सूचना फैलाने और मनुष्यों को हेरफेर करने की अपनी क्षमता के साथ सुरक्षा चिंताओं को भी जन्म दिया है।
अप्रैल में, एआई उद्योग के नेताओं और विशेषज्ञों के एक समूह ने एक खुले पत्र पर हस्ताक्षर किए, जिसमें समाज के लिए संभावित जोखिमों का हवाला देते हुए ओपनएआई के जीपीटी -4 से अधिक शक्तिशाली सिस्टम विकसित करने में छह महीने के लिए रोक लगाने का आह्वान किया गया। मई रॉयटर्स/इप्सोस सर्वेक्षण में पाया गया कि दो-तिहाई से अधिक अमेरिकी एआई के संभावित नकारात्मक प्रभावों के बारे में चिंतित हैं और 61 प्रतिशत का मानना है कि इससे सभ्यता को खतरा हो सकता है।
इस महीने की शुरुआत में, OpenAI ने 2024 की शुरुआत तक अपने कस्टम GPT स्टोर के लॉन्च में देरी की। OpenAI ने नवंबर में अपने पहले डेवलपर सम्मेलन के दौरान कस्टम GPT और स्टोर पेश किया था। कथित तौर पर कंपनी ग्राहकों की प्रतिक्रिया के आधार पर जीपीटी में “सुधार करना” जारी रख रही है।
पिछले महीने, OpenAI में भी उथल-पुथल मच गई जब इसके बोर्ड ने CEO को निकाल दिया सैम ऑल्टमैन. ऑल्टमैन तो लौटा हुआ उनके निष्कासन के कुछ दिनों बाद जब बोर्ड को नया रूप दिया गया था।
© थॉमसन रॉयटर्स 2023