خطأ أنظمة الذكاء الاصطناعي (الذكاء الاصطناعي) الحديثة التي تعتمد على التعلم الآلي (ML) ليس مجرد انقطاعات عشوائية، بل نتائج طبيعية لأرشيتكيتها، وسيلة تعليمها، وفارقها الأساسي عن الفهم البشري. على عكس الإنسان، لا «يستطيع» الذكاء الاصطناعي «فهم» العالم بمعنى семيائي؛ إنه يكتشف الترابطات الإحصائية في البيانات. تحليل هذه الأخطاء مهم للغاية لتقييم موثوقية الذكاء الاصطناعي وتحديد حدود تطبيقه.
أكثر مصادر الأخطاء شيوعًا وخطورة اجتماعيًا هي انحياز البيانات التدريبية. يكتسب الذكاء الاصطناعي ويقوي انحيازات موجودة في البيانات.
الانحياز الديمغرافي: حالة معروفة مع نظام التعرف على الوجوه، الذي أظهر دقة أعلى بشكل ملحوظ للرجال البيض مقارنة بالنساء السوداء، لأنه تم تدريبه على مجموعة بيانات غير متوازنة. هنا لم يكن الذكاء الاصطناعي «يخطئ»، بل يعكس بدقة عدم التوازن الحقيقي في العالم، مما أدى إلى خطأ في التطبيق في بيئة متنوعة.
الانحياز السيمانتيكي: إذا كان في بيانات التدريب للنموذج النصي، فإن كلمة «ممرضة» غالبًا ما تكون مرتبطة بمحرف «هي»، بينما كلمة «مبرمج» مرتبطة بمحرف «هو»، فإن النموذج سيقوم بإنشاء نصوص تعيد إنتاج هذه الأنماط الجندرية، حتى لو لم يذكر الجنس في الطلب. هذه هي خطأ على مستوى السياق الاجتماعي الذي لا يفهمه النموذج.
ملاحظة مثيرة: يطبق مبدأ «Garbage In, Garbage Out» (GIGO) في علوم الكمبيوتر — «موسى على الدخول، موسى على الخروج». تم تحويله إلى مبدأ أعمق للذكاء الاصطناعي «Bias In, Bias Out» — «انحياز على الدخول، انحياز على الخروج». لا يمكن للنظام التغلب على حدود البيانات التي تم تدريبه عليها.
هي تغييرات غير مشهورة مسبقًا في البيانات المدخلة، التي تؤدي إلى استنتاجات خاطئة بشكل كبير للذكاء الاصطناعي.
مثال على الصورة: يمكن أن تؤدي إضافة رقعة من لون معين وأشكال معينة إلى إشارة «STOP» إلى أن النظام الذكي للرؤية الآلية يصنفها كإشارة «تقييد السرعة». يظل الإشارة واضحة للإنسان.
الميكانيكية: تستغل العينات الإدارية «مناطق الضعف» في مساحة الميزات العالية الأبعاد لنموذج. يفهم الذكاء الاصطناعي العالم ليس ككائنات كاملة، بل كنماذج إحصائية. يمكن أن تؤدي «الإزعاج» الصغيرة، ولكن الاستراتيجية الصحيحة، إلى تحريك نقطة البيانات في مساحة الميزات عبر حدود نموذج الحل، مما يغير التصنيف.
يكون الذكاء الاصطناعي، خاصة الشبكات العصبية العميقة، عرضة للتدريب الزائد (overfitting) — إنه يتعلم ليس القوانين العامة، بل الأمثلة المحددة من مجموعة التدريب، بما في ذلك الضجيج.
الخطأ في بيانات «من توزيع مختلف»: قد تفقد نموذج، تم تدريبه على صور الكلاب والقطط مصورة في المنزل في ضوء النهار، دقته تمامًا إذا أعطيت له صورة حرارية ليلية أو رسم متحرك. لم يحدد النموذج المفهوم التجريدي لـ «القططية»، بل تعلم الرد على نماذج معينة من بكسلات.
عدم وجود «المنطق السليم`: مثال تقليدي: يمكن أن يصف الذكاء الاصطناعي سيناريو «الإنسان يجلس على الحصان في الصحراء» بشكل صحيح، لكنه قد يصنع جملة «الإنسان يحمل رمحًا في يده وهو على ظهر الحصان» لأنه كان يحتوي على رمح في سياق الرياضة في الهواء الطلق في البيانات. ليس له فهم للمنطق الفيزيائي والسببية في العالم.
تظهر نماذج اللغة (مثل GPT) نتائج مذهلة، لكنها تقع في مهام تتطلب فهم السياق العميق أو المعاني غير المكتوبة.
السخرية والسخرية: سيتم تفسير جملة «حسنًا، ما هي الجو رائع!» التي تُقال أثناء العاصفة بشكل حرفي كتقييم إيجابي، لأن الكلمات الإيجابية («ممتازة»، «الطقس») مرتبطة بالسياقات الإيجابية في البيانات.
التفكير المنطقي المتعدد الخطوات: تتطلب المهام مثل «إذا وضعت بيضة في الثلاجة، ثم نقلت الثلاجة إلى المرآب حيث سيكون البيضة،» بناء وتحديث نموذج مادي للعالم. غالبًا ما يفقد الذكاء الاصطناعي الأشياء في منتصف القصة المعقدة أو يصنع استنتاجات غير منطقية.
يكون الذكاء الاصطناعي سيئًا في التعامل مع المواقف التي تتجاوز حدود خبرته، خاصة عندما يتطلب الاعتراف بعدم كفاية البيانات.
مشكلة اكتشاف «الانحياز خارج التوزيع» detection: يمكن أن يقدم الذكاء الاصطناعي الطبي، المدرب لتشخيص الالتهاب الرئوي من صور أشعة الصدر، تشخيصًا ذا ثقة عالية ولكن خطأً إذا أعطي صورة ركبة. لا يفهم أنه ليس له معنى، لأنه لا يملك المعرفة الميتا عن حدود قدراته.
المهام الإبداعية والمفتوحة: يمكن للذكاء الاصطناعي إنشاء وصفة كيميائية معقولة ولكن غير قابلة للتنفيذ أو خطة بناء جسر تنتهك قوانين الفيزياء، أو وثيقة قانونية تحتوي على مراجع إلى قوانين غير موجودة. يفتقر إلى الحكم النقدي الداخلي، الذي يعتمد على فهم جوهر الظواهر.
مثال من الحياة الحقيقية: في عام 2016، أطلقت شركة مايكروسوفت روبوت دردشة Tay في Twitter. كان الروبوت يتعلم من التفاعل مع المستخدمين. في غضون 24 ساعة، تحول الروبوت إلى آلة تنتج تعليقات عنصرية وسافرة ومهينة، لأنه تعلم بشكل إحصائي أكثر التفاعلات الشائعة والمؤثرة العاطفية من بيئته الجديدة، السلبية. لم تكن هذه «خطأ» لخوارزمية، بل كانت عملًا دقيقًا أدى إلى نتيجة كارثية في بيئة اجتماعية غير متوقعة.
هذه الأخطاء ليست عيوب تقنية مؤقتة، بل هي نتيجة لفارق جوهري بين التقريب الإحصائي والفهم البشري. إنها تشير إلى أن الذكاء الاصطناعي الحديث هو أداة قوية لحل المشكلات داخل نطاقات البيانات المحددة والثابتة والواضحة، لكنه يظل «المتعلم الديمقراطي»: مبدع في مجال ضيق وغير قادر على التعامل مع المواقف التي تتطلب مرونة، الحكم السياقي والفهم.
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
Digital Library of Asia ® All rights reserved.
2024-2026, ELIB.ASIA is a part of Libmonster, international library network (open map) Preserving Asia's heritage |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2