AI بالعربي – متابعات
مع التقدم المتسارع في تقنيات الذكاء الاصطناعي، يتجدد سؤال قديم يفرض نفسه بقوة: هل لا يزال الإنسان قادرًا على التمييز بين التحدث إلى بشر أو إلى آلة ذكية، أم أن هذا الفارق بدأ يتلاشى تدريجيًا.
اختبار تورينغ أصل السؤال القديم الجديد
يعود هذا التساؤل إلى اختبار تورينغ، الذي وضعه عالم الرياضيات وعلوم الحاسوب البريطاني آلان تورينغ عام 1950، بهدف نقل النقاش حول ذكاء الآلة من الفلسفة إلى التجربة العملية، عبر قياس القدرة على التمييز السلوكي بين الإنسان والحاسوب.
متى يُعد الحاسوب ذكيًا؟
وفقًا للاختبار، إذا كان سلوك الحاسوب غير قابل للتمييز عن سلوك الإنسان أثناء التفاعل النصي، فإنه يُعد مظهرًا من مظاهر السلوك الذكي، وهو معيار أثار جدلًا واسعًا منذ طرحه وحتى اليوم.
لعبة التقليد بين الإنسان والآلة
يقوم اختبار تورينغ على سيناريو بسيط، يتواصل فيه شخص مع إنسان آخر وحاسوب عبر الرسائل النصية، ويُطلب منه في النهاية تحديد أيهما الإنسان وأيهما الآلة بناءً على الحوار فقط.
توقعات تورينغ قبل أكثر من نصف قرن
توقع تورينغ أن تتمكن الحواسيب بحلول عام 2000 من خداع البشر في ما لا يقل عن 30 في المئة من الحالات بعد خمس دقائق من الأسئلة، وهو توقع بدا جريئًا في زمنه.
جدل أول اجتياز للاختبار
عندما أُعلن عام 2014 أن روبوت المحادثة يوجين غوستمان اجتاز اختبار تورينغ بعد إقناع 33 في المئة من الحكام بأنه إنسان، لم يُنظر إلى الحدث بوصفه إنجازًا حاسمًا، بل أثار موجة انتقادات واسعة.
خداع لغوي لا ذكاء حقيقي
يرى بعض الباحثين أن الروبوت لم يلعب اللعبة بنزاهة، لأنه تقمص شخصية فتى أوكراني مراهق، ما جعل أخطاءه اللغوية تبدو طبيعية، وفق ما أوضحه الفيلسوف ماركوس بانتسار.
قفزة جديدة مع نماذج حديثة
في دراسة نُشرت مطلع عام 2025، توصل الباحث كاميرون جونز إلى أن ChatGPT 4.5 صُنّف على أنه إنسان في 73 في المئة من الحالات، متفوقًا على البشر أنفسهم في بعض التجارب.
نماذج أخرى تقترب من البشر
أظهرت الدراسة أن نموذج لاما 3.1 التابع لشركة ميتا صُنّف كإنسان في 56 في المئة من الحالات، ما يعكس تقاربًا متزايدًا بين السلوك البشري والآلي في التفاعل النصي.
هل يعني ذلك أن الآلة تفكر؟
رغم هذه النتائج، لا يزال الجدل قائمًا حول ما إذا كان اجتياز اختبار تورينغ دليلًا على التفكير الحقيقي، أم مجرد محاكاة متقنة للسلوك البشري.
حجة الغرفة الصينية تعود للنقاش
طرح الفيلسوف جون سيرل عام 1980 تجربة فكرية عُرفت باسم حجة الغرفة الصينية، لتوضيح أن تنفيذ التعليمات بدقة لا يعني فهم المعنى، وهو ما ينطبق في نظره على الحواسيب.
محاكاة بلا فهم
وفق هذا التصور، قد يبدو الحاسوب وكأنه يفهم اللغة، بينما هو في الواقع يعالج الرموز وفق قواعد مبرمجة، دون إدراك حقيقي لما يقول.
اختبار تورينغ تحت الانتقاد
يرى بعض الباحثين أن الاختبار يركز أكثر من اللازم على قدرة الآلة على خداع الإنسان، بدل قياس جوهر الذكاء نفسه، معتبرين أن الخداع ليس المعيار الأساسي للفهم أو الوعي.
اختبارات بديلة للذكاء
اقترح بانتسار اختبارًا قائمًا على المجتمع، يتم فيه إدخال نظام ذكاء اصطناعي إلى بيئة بشرية حقيقية دون علم أفرادها، ثم قياس مدى اندماجه الطبيعي مع مرور الوقت.
الذكاء في بيئة طبيعية
يركز هذا النهج على قدرة النظام على التصرف بطريقة تشبه الحياة البشرية، لا مجرد تقمص شخصية إنسان، وهو فارق يراه الباحثون جوهريًا.
متى نصل إلى الذكاء العام؟
من جهته، يرى مهندسون آخرون أن الذكاء الاصطناعي العام لن يتحقق إلا عندما تتمكن الآلة من ابتكار معرفة علمية جديدة وشرحها اعتمادًا على فهم ذاتي، لا مجرد إعادة تركيب معلومات موجودة.
اختبار لا يزال حاضرًا
على الرغم من الانتقادات، يؤكد بعض الباحثين أن اختبار تورينغ لا يزال أداة مهمة، لأنه يقيس ذكاءً ديناميكيًا ومرنًا يصعب حصره في معايير جامدة.
معركة التمييز قد تكون خاسرة
يرجح بانتسار أن تصبح أنظمة الذكاء الاصطناعي غير قابلة للتمييز عن البشر مع استمرار تطورها، معتبرًا أن محاولة الفصل بينهما قد تكون معركة خاسرة على المدى الطويل.
الحاجة إلى أطر قانونية
في هذا السياق، تبرز دعوات لفرض تشريعات تُلزم أنظمة الذكاء الاصطناعي بالإفصاح عن هويتها، لضمان المساءلة القانونية في حال نشر معلومات خاطئة أو مضللة.
مستقبل التفاعل الرقمي
مع ازدياد تفاعل البشر مع الذكاء الاصطناعي عبر الإنترنت، يصبح قياس قدرتنا على التمييز بين الإنسان والآلة مسألة محورية، لا تتعلق بالتقنية فقط، بل بالثقة والمسؤولية في الفضاء الرقمي.








