AI بالعربي – متابعات
كثيرًا ما يُقدَّم الذكاء الاصطناعي بوصفه عقلًا رقميًا يحاكي التفكير البشري. غير أن جون نوستا، منظّر الابتكار ومؤسس مركز الأبحاث والتكنولوجيا “نوستا لاب”، يرى أن هذا التصور مضلل. ويؤكد أن النماذج اللغوية الكبيرة لا تفكّر مثل البشر، بل تعمل بطريقة معاكسة تمامًا للإدراك الإنساني.
نوستا يذهب إلى أبعد من ذلك، إذ يصف الذكاء الاصطناعي بأنه “مضاد للذكاء”، لأنه لا يفهم المعاني كما يفعل الإنسان، بل ينتج إجابات متماسكة لغويًا دون إدراك حقيقي للسياق أو التجربة.
الذكاء الاصطناعي لا يفهم بالمعنى البشري
في حديثه لموقع “بيزنس إنسايدر”، قال نوستا إن استنتاجه الأساسي هو أن الذكاء الاصطناعي يناقض طريقة التفكير البشرية. وأضاف أنه يصفه عمدًا بأنه “مضاد الذكاء”، لأن آلية عمله تختلف جذريًا عن التعلم والفهم الإنسانيين.
يوضح نوستا أن الإنسان عندما يفكر في شيء بسيط مثل تفاحة، فإنه يربطها بالمكان والزمان والذاكرة والثقافة والتجربة الشخصية. أما النموذج اللغوي الكبير فلا يفعل ذلك مطلقًا. بل يحوّل الكلمة إلى تمثيل رياضي داخل فضاء متعدد الأبعاد، ثم يبحث عن أنماط إحصائية متناسقة.
لماذا لا “توجد” التفاحة داخل النموذج؟
بحسب نوستا، التفاحة داخل الذكاء الاصطناعي لا تُفهم ككيان واقعي. إنها موجودة كمتجه رياضي ضمن فضاء هائل. ويؤكد أن هذا الفارق جوهري، لأن مخرجات الذكاء الاصطناعي تُصمَّم لتحقيق التناسق والطلاقة، لا الفهم.
ويشير إلى أن النظام لا يصل إلى الإجابة عبر منطق أو استنتاج، بل ينتج الرد الأكثر توافقًا مع أنماط اللغة السابقة. وهذا ما يجعل الإجابات تبدو صحيحة، حتى عندما تكون خالية من الإدراك الحقيقي.
انقلاب صامت في طريقة التفكير
يرى نوستا أن الخطر الأكبر لا يكمن في التقنية نفسها، بل في تأثيرها التدريجي على طريقة تفكير البشر، خاصة داخل بيئات العمل.
يوضح أن الإدراك البشري عادة يبدأ بالارتباك، ثم الاستكشاف، ثم بناء الفهم، وصولًا إلى الثقة. أما الذكاء الاصطناعي فيقلب هذا التسلسل. إذ يمنح المستخدم هيكلًا جاهزًا وإجابات متماسكة منذ اللحظة الأولى، ما يولّد إحساسًا زائفًا بالفهم.
الإجابة أولًا ثم الثقة لاحقًا
يقول نوستا إن الذكاء الاصطناعي يبدأ بالتناسق والطلاقة، ثم يولّد الثقة. وهذا عكس المسار الطبيعي للتفكير البشري. ويحذّر من أن هذا الانقلاب يخلق وهمًا قويًا، لأن الإجابات المصقولة تدفع المستخدم إلى قبولها دون تساؤل أو فحص.
ويضيف أن الوصول السريع إلى الإجابة يقوّض العملية الإدراكية الطبيعية، ويجعل التفكير البشري أكثر سطحية على المدى الطويل.
متى يصبح الذكاء الاصطناعي خطرًا؟
بحسب نوستا، لا تكمن الخطورة في تفوق الذكاء الاصطناعي بالحسابات أو التحليل المجرد. فهذا أمر متوقع. الخطر الحقيقي هو تفويض التفكير ذاته إلى الأنظمة الذكية دون وعي.
يؤكد أن الصعوبات والاحتكاك الذهني هما ما يدفع الإنسان إلى صياغة الفرضيات وبناء الفهم العميق. وعندما تختفي هذه المراحل، يضعف التطور المعرفي بهدوء.
بين الشريك والاختصار
يشدد نوستا على أن استخدام الذكاء الاصطناعي كشريك يمكن أن يعزّز التفكير البشري. لكن استخدامه كاختصار دائم قد يؤدي إلى تآكل القدرات العقلية دون أن يشعر المستخدم بذلك.
ويقول إن “السحر الحقيقي لا يكمن في الذكاء الاصطناعي نفسه، بل في العلاقة التكرارية بين الإنسان والآلة”، حيث يبقى الإنسان في موقع الفهم والمساءلة.
قلق علمي متصاعد
لا تقتصر هذه المخاوف على منظّري الابتكار. فقد أشار تقرير صادر عن دار نشر جامعة أكسفورد إلى أن الذكاء الاصطناعي يجعل الطلاب أسرع وأكثر طلاقة، لكنه يضعف العمق الناتج عن التوقف والتفكير المستقل.
كما أظهر تقرير حديث لمعهد “Work AI” أن الذكاء الاصطناعي التوليدي يخلق وهمًا بالخبرة. يشعر المستخدمون بأنهم أكثر كفاءة، بينما تتآكل مهاراتهم الأساسية تدريجيًا.
تحذير من تآكل معرفي خفي
من جهته، قال مهدي باريَافي، الرئيس التنفيذي للهيئة الدولية لمراكز البيانات، إن الإفراط في استخدام الذكاء الاصطناعي وسوء تصميمه قد يؤديان إلى “تآكل معرفي خفي”.
وأكد أن الخطر الحقيقي لعصر الذكاء الاصطناعي لا يكمن في تطور الآلات، بل في تعلّم البشر التفكير بطريقة عكسية، حيث تحل الطلاقة محل الفهم، والسرعة محل العمق.








