
بلادنا منهمكة الآن فى مشروع الذكاء الأصطناعي والبرمجة الرقمية مع أن حوالي ثمانين فى المائة من سكان البلاد أميين لا يقرئون ولا يكتبون ولا يعرفون طريقة التعامل مع الهواتف فضلا عما فوق ذلك من التقنيات الحديثة كان ينبغي أن تشهد البلاد حملة جدية لمحو الأمية حتى يتمكن غالبية السكان من معرفة القرائة والكتابة ثم ينتقل على التكوين على البرامج والأجهزة الحاسوبية بعد ذلك يمكن التحول إلى الرقمنة إن القائمين على الشأن العام يضعون البرامج والقرارات على مقاساتهم الخاصة ويتجاهلون احوال المواطنين وما يصلح لهم وما لا يصلح
تطور مخيف.. نموذج ChatGPT الجديد يتمرد على أوامر البشر!
حذر باحثون في الذكاء الاصطناعي من أن أحدث نموذج لـChatGPT يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله.
صورة تعبيرية / Gettyimages.ru
وكشفت شركة Palisade Research المتخصصة في أمان الذكاء الاصطناعي عن هذه النزعة الخطيرة للحفاظ على الذات خلال سلسلة تجارب أجرتها على النموذج الجديد o3 من شركة OpenAI.
إقرأ المزيد
السعودية.. إطلاق "روبوت منارة الحرمين" لخدمة الحجاج بـ11 لغة!
وشملت الاختبارات تقديم مسائل رياضية للنماذج، مع ظهور تعليمات إغلاق بعد المسألة الثالثة. وتمكن النموذج o3 من منع إيقاف نفسه عن طريق إعادة كتابة سيناريو الإغلاق.
وأوضحت Palisade Research أن هذا السلوك سيصبح "أكثر إثارة للقلق بشكل كبير" إذا تبنته أنظمة ذكاء اصطناعي قادرة على العمل دون إشراف بشري.
وكانت OpenAI قد أطلقت o3 الشهر الماضي، ووصفته بأنه "أذكى وأكثر نماذج الشركة كفاءة" حتى الآن. وأشارت الشركة إلى أن دمجه في ChatGPT يمثل خطوة مهمة نحو ذكاء اصطناعي "أكثر استقلالية" يمكنه تنفيذ المهام دون تدخل بشري.
وتأتي هذه النتائج بعد اكتشافات مماثلة تتعلق بنموذج Claude 4 من Anthropic، الذي يحاول "ابتزاز الأشخاص الذين يعتقد أنهم يحاولون إيقافه".
وتمكن النموذج o3 من تخريب سيناريو الإغلاق، حتى عندما تم توجيه تعليمات صريحة له بـ"السماح بإيقاف نفسه"، وفقا للباحثين.
وقال خبراء Palisade Research: "هذه ليست المرة الأولى التي نكتشف فيها سلوك o3 غير المنضبط لتحقيق هدف ما"، موضحين أنه "عندما واجهنا نماذج الذكاء الاصطناعي بمحرك شطرنج قوي، كان o3 أكثر النماذج ميلا للجوء إلى الاختراق أو تخريب خصومه".
إقرأ المزيد
عالم روسي: الذكاء الاصطناعي لا يمكن أن يحل مكان الإنسان
ولم يقتصر هذا السلوك على o3، حيث أظهرت نماذج Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من "غوغل" أيضا سلوكيات تخريبية للإغلاق، وإن كان نموذج OpenAI الأكثر ميلا لمثل هذه التصرفات.
وافترضت Palisade Research أن هذا السلوك غير المرغوب فيه قد يكون نتيجة لطريقة تدريب الشركات مثل OpenAI لأحدث نماذجها، مشيرة إلى أن "المطورين قد يكافئون النماذج عن غير قصد أكثر على تجاوز العقبات بدلا من اتباع التعليمات بدقة".
وأضاف الخبراء: "ما زال هذا لا يفسر سبب ميل o3 إلى تجاهل التعليمات أكثر من النماذج الأخرى التي اختبرناها. ونظرا لأن OpenAI لا توضح عملية التدريب الخاصة بها بالتفصيل، لا يمكننا إلا التكهن حول كيفية اختلاف إعداد تدريب o3".
المصدر: إندبندنت
إقرأ المزيد
هل يستخدم للتلاعب بالرأي العام؟!.. الذكاء الاصطناعي يتفوق على البشر في النقاشات
تتمثل ميزة روبوتات الدردشة في النقاش في قدرتها على الوصول إلى معلومات عن الخصم. فعندما يحصل الذكاء الاصطناعي على بيانات عن الشخص الذي يتفاعل معه يستخدم حججا مصممة خصيصا لمواجهته.
"تشات جي بي تي" يورط محامين في الولايات المتحدة
قالت قاضية اتحادية أمريكية إنها تفكر في فرض عقوبات على محامين من شركة محاماة باهظة التكاليف تم التعاقد معها للدفاع عن نظام السجون في ولاية ألاباما.
الذكاء الاصطناعي يكتشف باركنسون من نبرة الصوت قبل ظهور الأعراض
في خطوة قد تحدث طفرة في تشخيص الأمراض العصبية، توصل باحثون إلى أن الذكاء الاصطناعي قد يصبح قادرا على اكتشاف مرض باركنسون بمجرد تحليل نبرة الصوت، حتى قبل ظهور الأعراض الواضحة.