أخبار تكنولوجيا المعلومات

تترجم الأخبار التكنولوجية من المجلات الأجنبية جيدًا للمهوسين الذين لا يعرفون اللغة الإنجليزية ولكنهم يريدون دائمًا أن يكونوا على دراية

يدعو قادة التكنولوجيا إلى إيقاف تطوير GPT-4.5 و GPT-5 بسبب “المخاطر واسعة النطاق”

يتحرك الذكاء الاصطناعي التوليدي بسرعة لا تصدق في الأشهر الأخيرة ، مع إطلاق العديد من الأدوات والروبوتات مثل OpenAI's ChatGPT و Google Bard والمزيد. ومع ذلك ، فإن هذا التطور السريع يسبب قلقًا خطيرًا بين قدامى المحاربين المخضرمين في مجال الذكاء الاصطناعي – لدرجة أن أكثر من 1000 منهم قد وقعوا خطابًا مفتوحًا يدعو مطوري الذكاء الاصطناعي إلى الضغط على المكابح.

تم نشر الرسالة على الموقع الإلكتروني لمعهد Future of Life ، وهي منظمة تتمثل مهمتها المعلنة في "توجيه التكنولوجيا التحويلية نحو الاستفادة من الحياة والابتعاد عن المخاطر الشديدة على نطاق واسع". من بين الموقعين العديد من الأكاديميين البارزين والقادة في مجال التكنولوجيا ، بما في ذلك المؤسس المشارك لشركة Apple ستيف وزنياك ، والرئيس التنفيذي لشركة Twitter Elon Musk ، والسياسي أندرو يانغ.

يدعو المقال جميع الشركات التي تعمل على نماذج ذكاء اصطناعي أقوى من GPT-4 التي تم إصدارها مؤخرًا إلى التوقف فورًا عن العمل لمدة ستة أشهر على الأقل. يجب أن يكون هذا الوقف "عامًا ويمكن التحقق منه" وسيتيح الوقت "للتطوير المشترك وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير الذكاء الاصطناعي المتقدمين والتي يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين."

تقول الرسالة أن هذا ضروري لأن "أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري يمكن أن تشكل مخاطر عميقة على المجتمع والإنسانية." وتشمل هذه المخاطر انتشار الدعاية ، وتدمير الوظائف ، واحتمال استبدال وتقادم الحياة البشرية ، و "فقدان السيطرة على حضارتنا". يضيف المؤلفون أن القرار بشأن المضي قدمًا في هذا المستقبل لا ينبغي أن يترك لـ "قادة التكنولوجيا غير المنتخبين".

الذكاء الاصطناعي “ يعود بالفائدة على الجميع ''

ChatGPT مقابل Google على الهواتف الذكية.

تأتي الرسالة بعد الادعاءات بأن GPT-5 ، الإصدار التالي من تقنية ChatGPT التي تعمل بالطاقة ، يمكن أن تحقق ذكاءً عامًا اصطناعيًا . إذا كان هذا صحيحًا ، فهذا يعني أنه سيكون قادرًا على فهم وتعلم أي شيء يمكن للإنسان فهمه. هذا يمكن أن يجعله قويًا بشكل لا يصدق بطرق لم يتم استكشافها بالكامل بعد.

ما هو أكثر من ذلك ، تؤكد الرسالة أن التخطيط والإدارة المسؤولين المحيطين بتطوير أنظمة الذكاء الاصطناعي لا يحدثان ، "على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة. واحد – ولا حتى منشئوه – يمكنه الفهم والتنبؤ والتحكم بشكل موثوق ".

بدلاً من ذلك ، تؤكد الرسالة أنه يجب إنشاء أنظمة حوكمة جديدة من شأنها تنظيم تطوير الذكاء الاصطناعي ، ومساعدة الأشخاص على التمييز بين المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والمحتوى الذي يصنعه الإنسان ، وتحميل مختبرات الذكاء الاصطناعي مثل OpenAI المسؤولية عن أي ضرر تسببه ، وتمكين المجتمع من التعامل مع اضطراب الذكاء الاصطناعي ( خاصة للديمقراطية) ، وأكثر من ذلك.

انتهى المؤلفون بملاحظة إيجابية ، حيث زعموا أن "البشرية يمكن أن تتمتع بمستقبل مزدهر مع الذكاء الاصطناعي … حيث نحصد الثمار ، ونهندس هذه الأنظمة لمنفعة واضحة للجميع ، ونمنح المجتمع فرصة للتكيف". ويذكرون أن التوقف المؤقت لأنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 سيسمح بحدوث ذلك.

هل سيكون للرسالة تأثيرها المقصود؟ من الصعب قول ذلك. من الواضح أن هناك حوافز لـ OpenAI لمواصلة العمل على نماذج متقدمة ، مالية وذات سمعة. ولكن مع وجود العديد من المخاطر المحتملة – وقلة الفهم لها – يشعر مؤلفو الرسالة بوضوح أن هذه الحوافز خطيرة للغاية ولا يمكن متابعتها.