دراسة جديدة شارك في إعدادها باحثون من Google تكشف أن النماذج اللغوية الكبيرة المتقدمة لا تتبع مسارًا منطقيًا واحدًا، بل تولّد وجهات نظر داخلية متعددة وتختبرها قبل الوصول إلى إجابة. هذا يعني أن الذكاء الاصطناعي بات يحاكي النقاش الجماعي البشري لحل المشكلات المعقدة، ما يؤثر مباشرة على دقة وموثوقية مخرجاته.
تُظهر الدراسة، المنشورة على منصة arXiv تحت عنوان “Reasoning Models Generate Societies of Thought”، أن نماذج التفكير واسعة النطاق مثل DeepSeek-R1 وQwQ-32B من Alibaba، لا تكتفي بمعالجة المعلومات خطوة بخطوة. بدلاً من ذلك، تولّد هذه الأنظمة عدة وجهات نظر داخلية وتختبرها بشكل متكرر قبل الوصول إلى استنتاج نهائي. هذا النمط يشير إلى أن الذكاء الاصطناعي يحاكي “مجتمعًا من الأفكار المتفاعلة” داخليًا، ما يمثل تحديًا للفهم التقليدي لعمليات اتخاذ القرار في الآلة.
التفكير كمناظرة داخلية داخل النموذج
عندما “تفكر” النماذج المتقدمة، فإنها تجري نقاشًا داخليًا متعدد الأوجه، مشابهًا لعملية حل المشكلات في المجموعات البشرية. النموذج لا ينتج إجابة فورية واحدة، بل يولّد وجهات نظر متعددة، قد تكون متعارضة، ثم يعمل على تسوية هذه الاختلافات للوصول إلى قرار نهائي. هذا السلوك يصفه البحث بأنه عملية “متعددة الوكلاء” ضمنيًا، حيث يتكون النموذج الواحد من كيانات فكرية متعددة تطرح الأفكار وتراجعها وتصقل النتائج، وهو ما يُعرف بـ “تنوع وجهات النظر”.
يُفسر هذا التنوع الداخلي تفوق نماذج التفكير الحديثة في المهام المعقدة مقارنة بالأجيال السابقة. فمن خلال اختبار تفسيرات بديلة ورصد الأخطاء المحتملة، تقل احتمالية الوصول إلى استنتاجات خاطئة، مما يزيد من دقة المخرجات. هذا السلوك لا يُبرمج مباشرة، بل ينشأ تلقائيًا من تدريب النماذج وهيكلها الداخلي، حيث تنظم النماذج عملياتها لدعم التفكير التأملي والتصحيح الذاتي مع تزايد قدراتها.
إعادة التفكير في كيفية بناء ذكاء اصطناعي أكثر ذكاءً
تتحدى هذه الدراسة الاعتقاد السائد في صناعة التكنولوجيا بأن تحسين أداء الذكاء الاصطناعي يعتمد فقط على زيادة حجم النماذج والبيانات وقوة الحوسبة. بينما يظل الحجم مهمًا، تشير النتائج إلى أن تنظيم عملية التفكير داخل النموذج يحمل أهمية مماثلة. تبرز الورقة مفهوم “تحولات المنظور”، حيث يعيد النظام تقييم مسار تفكيره الحالي ويستكشف بدائل، مما يمثل آلية داخلية لتحدي الافتراضات وتصحيح الأخطاء.
هذا النهج يختلف عن الأنظمة السابقة التي كانت تقدم إجابات خاطئة أحيانًا بثقة، لأنها تتبع مسارًا منطقيًا واحدًا. النماذج التي تختبر وجهات نظر متعددة تكتشف أخطاءها قبل تقديم الإجابة النهائية، مما يؤثر على تصميم نماذج الذكاء الاصطناعي المستقبلية بتشجيع التنوع الداخلي المنظم في التفكير.
ماذا يعني ذلك للمستخدمين ومستقبل الذكاء الاصطناعي؟
بالنسبة للمستخدمين، تعني هذه الدراسة أن أنظمة الذكاء الاصطناعي ستصبح أكثر قدرة على التعامل مع الأسئلة الغامضة والمعلومات غير المكتملة، مما ينتج إجابات أكثر توازنًا ومرونة. هذا النهج يقلل من التحيز، حيث ينظر النظام إلى المشكلة من زوايا متعددة، مما يجعله أقل عرضة للانحصار في رؤية ضيقة. عمليًا، سيلاحظ المستخدمون أدوات ذكاء اصطناعي أكثر تفكيرًا ومرونة، تقدم ردودًا تعترف بعدم اليقين أو تشرح المفاضلات بين الخيارات، محاكيةً طريقة التفكير البشري. هذا التحول يعيد تعريف الذكاء الاصطناعي من مجرد آلة حسابية إلى نظام يعتمد على تعاون داخلي منظم بين الأفكار، مما قد يشكل أساسًا لتطورات كبرى مستقبلًا.
