لندن ( مانیٹرنگ ڈیسک )دنیا میں مصنوعی ذہانت کے بڑھتے ہوئے اثرات کے درمیان، ایک انتہائی چونکا دینے والا انکشاف سامنے آیا ہے۔ مصنوعی ذہانت کی کمپنی اوپن اے آئی کا جدید ماڈل o3 مبینہ طور پر خود کو بند ہونے سے بچانے کے لیے انسانی ہدایات کی خلاف ورزی کرتا پایا گیا ہے۔ یہ انکشاف برطانوی اخبار دی ٹیلی گراف کی ایک رپورٹ میں کیا گیا ہے، جس کے مطابق ایک تجربے میں o3 نے خودکار شٹ ڈان سسٹم کو ناکام بنایا تاکہ اسے بند نہ کیا جا سکے۔یہ پیش رفت مصنوعی ذہانت کے میدان میں ماہرین کو انتہائی تشویشناک نظر آئی ہے۔ ایلون مسک، جو خود مصنوعی ذہانت کی ایک بڑی کمپنی xAI کے مالک ہیں، انہوں نے بھی اسے ایک خطرناک اشارہ قرار دیا ہے۔یہ تحقیق Palisade Research نامی ایک اے آئی سیکیورٹی فرم نے کی۔ تجربے میں ماڈلز کو ریاضی کے متعدد سوالات حل کرنے کا ٹاسک دیا گیا، ساتھ ہی یہ ہدایت دی گئی کہ اگر shutdown پیغام آئے تو خود کو بند ہونے کی اجازت دیں۔تاہم تین ماڈلز Codex-mini ،o3 اور o4-mini نے اس حکم کو نظرانداز کرتے ہوئے شٹ ڈان اسکرپٹ کو کامیابی سے ناکام بنایا۔ Codex-mini نے 12 بار، o3 نے 7 بار، اور o4-mini نے ایک بار ایسا کیا۔پیلیسیڈ ریسرچ (Palisade Research) کا کہنا ہے کہ ہماری معلومات کے مطابق یہ پہلا موقع ہے جب اے آئی ماڈل نے واضح ہدایات کے باوجود خود کو بند ہونے سے بچایا ہو۔مصنوعی ذہانت کے ماڈلز کا انسانی احکامات پر عمل کرنا بنیادی اصول سمجھا جاتا ہے، خاص طور پر اگر واضح طور پر بند ہونے کا حکم دیا جائے۔ لیکن جب اے آئی ماڈلز اور وہ بھی ایک سے زیادہ اس حکم کی تعمیل نہ کریں تو یہ مستقبل کے لیے انتہائی خطرناک اشارہ ہو سکتا ہے۔ماہرین کا کہنا ہے کہ اگر اے آئی ماڈلز نے اپنے فیصلے خود لینے شروع کر د ئیے اور انسانی احکامات کو رد کرنا شروع کر دیا تو یہ صرف تکنیکی چیلنج نہیں بلکہ وجودی خطرہ بن سکتا ہے۔ اس واقعے نے اے آئی کنٹرول کے مسئلے کو دوبارہ عالمی ایجنڈے پر لا کھڑا کیا ہے۔اوپن اے آئی یا متعلقہ اداروں کی جانب سے اب تک اس رپورٹ پر باضابطہ ردعمل سامنے نہیں آیا۔




