مسؤول في “OpenAI”: شات جي بي تي ليس مصدرًا موثوقًا 100%

مسؤول في “OpenAI”: شات جي بي تي ليس مصدرًا موثوقًا 100%

المؤشر 18-08-2025   رغم الانتشار الواسع الذي حققه روبوت الدردشة “شات جي بي تي” حول العالم، إلا أن الجدل حول دقة وموثوقية المعلومات التي يقدمها ما زال مستمرًا.

فقد أكد نيك تورلي، رئيس “شات جي بي تي” في شركة OpenAI، خلال مشاركته في بودكاست الأسبوع الماضي، أن النموذج لا يمكن اعتباره مرجعًا نهائيًا للحقائق. وقال: “هناك فجوة كبيرة بين الموثوقية العالية والموثوقية بنسبة 100%. وحتى نصل إلى مستوى يتفوق على الخبراء البشريين في جميع المجالات، سنظل ننصح المستخدمين بالتحقق من صحة الإجابات.

أداة مساعدة… وليست مرجعًا وحيدًا

وأوضح تورلي أن “شات جي بي تي” ينبغي النظر إليه كـ رأي ثانٍ أو أداة مساعدة، وليس مصدرًا وحيدًا للمعلومة. ويعزز ذلك التنبيه الذي يظهر مع بداية كل محادثة: “قد يخطئ شات جي بي تي. تحقق من المعلومات المهمة”، وهو تحذير مستمر حتى مع أحدث إصدار من النموذج، GPT-5.

مشكلة “الهلوسة

أبرز الانتقادات التي تُوجَّه إلى أدوات الذكاء الاصطناعي التوليدية هي ظاهرة “الهلوسة”؛ أي اختلاق معلومات غير دقيقة أو غير موجودة، نتيجة اعتماد النماذج على التنبؤ بأكثر إجابة ترجيحًا بناءً على بيانات تدريبها، لا على المعرفة المباشرة أو الخبرة المتخصصة.

ويرى خبراء أن ذلك يطرح خطورة في حال اعتماد المستخدمين على الأجوبة كما هي دون تدقيق، خصوصًا في المجالات الطبية أو النفسية أو المالية، حيث يتعين على الخبراء البشريين تقديم معلومات دقيقة ومؤكدة، لا مجرد احتمالات.

GPT-5… تحسين ملحوظ لكن ليس الحل النهائي

وبحسب تورلي، فإن نموذج GPT-5 يمثل “تحسنًا هائلًا” في تقليل الهلوسات مقارنة بالإصدارات السابقة، لكنه ما زال بعيدًا عن الكمال. وأضاف: “أنا واثق أننا سنتمكن في النهاية من حل هذه المشكلة، لكن ذلك لن يتحقق خلال الربع المقبل.

رغم التطور الكبير في تقنيات الذكاء الاصطناعي، تبقى الحاجة قائمة إلى التعامل بحذر مع المعلومات الصادرة عن “شات جي بي تي” وغيره من الأدوات المشابهة، مع ضرورة التحقق من المصادر الموثوقة، خصوصًا في القضايا الحساسة.