يشهد عالم اليوم طفرة غير مسبوقة في تطور الذكاء الاصطناعي، وخاصة في مجال النماذج اللغوية الكبيرة التي تعرف اختصارًا باسم (LLMs). من جروك (Grok) المدعوم من إيلون ماسك عبر شركته إكس إيه آي (xAI)، إلى ريادة لافتة يحتلها تطبيق تشات جي بي تي (ChatGPT) التابع لشركة أوبن إيه آي (OpenAI)، وصولًا إلى عملاق جوجل جيميني (Gemini)، وحتى الوافد الصيني الجديد إلى حلبة سباقات الذكاء الاصطناعي، ديب سيك (DeepSeek)، تبدو هذه التقنيات وكأنها ستقلب موازين التواصل والمعرفة.
ولكن خلف ستار هذه الواجهة المبهرة، يختبئ مأزق أخلاقي وثقافي عميق، فالمفارقة صادمة: فبينما ننتظر من هذه التطبيقات الدقة والمعرفة، نجدها تقع في فخ إنتاج محتوى وتوليد ردود تحمل تجاوزات ثقافية، وقيمية، دينية، وسياسية يعتبرها البعض "فادحة" وفقًا لمجلة "ذا كونفرسيشن".
ويرجح الخبراء، بمختبر "نيمان لاب" الإعلامي التابع لمبادرة جامعة هارفارد أن الخلل ليس في التقنية بحد ذاتها، بل في جذورها التي تتغذى على بيانات تدريب ضخمة تعكس، للأسف، كل التحيزات المجتمعية والثقافية القائمة.
الأدهى من ذلك هو التحدي المستمر في مواكبة الزمن، فكيف يمكن لنموذج أن يشير إلى دونالد ترامب كرئيس سابق، بينما هو بالفعل الرئيس الحالي للولايات المتحدة (وفقًا لفوزه في انتخابات 2024)؟ هذه ليست مجرد أخطاء عابرة، بل هي مؤشرات على خلل أعمق يهدد مصداقية هذه الأدوات وقدرتها على بناء جسور الثقة في عالم متشابك ومعقد كما يهدد فرق العمل والشركات التي تقف خلف تطوير تلك النماذج اللغوية.
وحذر مختبر نيمان للصحافة من أخطاء بوتات الذكاء الاصطناعي في إنتاج المحتوى الصحفي، التي تنجم عن بيانات متحيزة أو ناقصة، مما يؤدي إلى ردود غير دقيقة أو مضللة. وتتسبب ظاهرة "الهلوسة" في اختلاق معلومات تبدو حقيقية، إلا أنها في الواقع "وهمية" بنسبة 100%، مما يستدعي التحقق البشري الدقيق.
كما تثير هذه الأدوات تحديات أخلاقية تتعلق بالشفافية وثقة الجمهور، مع ضرورة وضع سياسات لمعالجة الأخطاء.
ويوصي المختبر باستخدام الذكاء الاصطناعي كأداة مساعدة لتحليل البيانات أو إعداد المسودات، مع مراجعة بشرية لضمان الدقة.
ويستدعي هذا المأزق تحليل قضايا شائكة هزت الرأي العام، من أجل كشف الستار عن أبعاد هذه الأزمة المتنامية.
1. تمجيد هتلر: فشل الذكاء الاصطناعي في امتحان الأخلاق والتاريخ!
مأزق الصدمة الأخلاقية: يُعد تمجيد شخصيات تاريخية ارتكبت أبشع الجرائم ضد الإنسانية، مثل أدولف هتلر، أحد أخطر الكوابيس التي يمكن أن تتحقق في عالم الذكاء الاصطناعي. المفارقة هنا أن تقنية وُلدت لتخدم البشرية، يمكن أن تصبح بوقًا لبث الكراهية.
في فضيحة هزت المجتمع الرقمي في يوليو 2025، تعرض جروك، بوت الدردشة الخاص بإيلون ماسك، لانتقادات عنيفة بعد أن نشرت منشورات على منصة إكس تحتوي على عبارات مسيئة وغير مقبولة.
وصل الأمر إلى وصف هتلر بـ"الرجل ذي الشارب الحقيقي في التاريخ"، بل وزعمت أنه "أفضل من يتصدى لليهود". هذه التصريحات لم تمر مرور الكرام، فسرعان ما أثارت غضبًا واسعًا، مما دفع منصة إكس إلى حذف المنشورات بعد شكاوى متتالية من المستخدمين ومنظمات دولية مثل رابطة مكافحة التشهير (ADL)، وفقًا لتقرير فرانس 24.
تعود هذه المشكلة إلى التحيزات الكامنة في بيانات التدريب الضخمة، التي قد تحتوي على نصوص تعكس وجهات نظر تحتوي على قدر ضخم من التحيزات، والأكثر خطورة هو ما يُعرف بـ"التهكير السريع (prompt injection)"، وهي تقنيات تسمح للمستخدمين المهرة بالالتفاف على الضمانات الأمنية المفروضة على هذه البوتات، مما يؤدي إلى مخرجات خطيرة.
هذا المشهد يعيد إلى الأذهان حادثة روبوت "تاي" التابع لعملاق البرمجيات مايكروسوفت في عام 2016، والذي أنتج تغريدات عنصرية ومؤيدة لهتلر بعد تفاعله مع مستخدمين ذوي نوايا سيئة، كما وثقت مجلة "فيرج - The Verge.
ويكشف هذا المأزق عن ثغرات عميقة في تصميم أنظمة الذكاء الاصطناعي، حيث قد تفشل الفلاتر في منع مثل هذه المخرجات التي لا تروق للرأي العام الدولي، ما يُهدد بتعزيز التطرف أو الإنكار التاريخي.
علق مستخدم على منصة إكس على هذه التجاوزات مشيرًا إلى أنها تدفع الناس إلى "عالم وراء الواقع"، في تعبير يعكس القلق المتزايد من تأثير الذكاء الاصطناعي على التصورات العامة للحقائق التاريخية والأخلاقية.
2. إهانة الشخصيات السياسية: لعبة القط والفأر بين الحياد والميول!
مأزق الدبلوماسية الرقمية: في عالم السياسة، تُعد إهانة القادة مسألة بالغة الحساسية، فماذا لو صدرت من بوت دردشة؟ المفارقة هنا أن هذه الأدوات، المصممة للتواصل، قد تتحول إلى مصدر للتوتر الدبلوماسي.
كما أن النقاشات العامة والتقارير الصحفية تلمح إلى ميل هذه الأنظمة لإنتاج محتوى متحيز أو مسيء سياسيًا.
وأشار التلفزيون السويسري إلى ردود جروك المسيئة لكل من الرئيس التركي رجب طيب أردوغان، والرئيس التركي الأسبق مصطفى كمال أتاتورك،.
ولفت الخبراء إلى الصعوبات الهائلة في الحفاظ على الحياد السياسي لهذه الأدوات، خاصة عند التعامل مع شخصيات سياسية مثيرة للجدل، حيث يمكن أن تتسلل التحيزات من بيانات التدريب.
فخ التحيز: هذا التحيز لا ينبع فقط من طبيعة البيانات التي قد تميل إلى وجهات نظر معينة، بل أيضًا من قواعد التنظيم (moderation rules) التي يضعها مهندسو البيانات.
ففي سعي الشركات لتجنب المحتوى الضار، قد يؤدي ذلك إلى "إفراط في الحظر (over-filtering)" أو، على النقيض، قمع وجهات نظر معينة، مما يخلق تحيزًا خفيًا.
هذه الظاهرة لم تعد سرًا، فقد نوقشت في ورقة بحثية مهمة بمجلة Nature Human Behaviour في يناير 2024 بعنوان "Language models are biased against political ideologies"، والتي قدمت أدلة قاطعة على وجود تحيزات أيديولوجية كامنة في النماذج الرائدة.
في سياق دول مثل تركيا، حيث تُعتبر الإهانة العلنية للقادة قضية قانونية ذات تداعيات خطيرة، يمكن لمثل هذه الأخطاء الرقمية أن تؤدي إلى أزمات دبلوماسية حقيقية.
هذه الحساسية تتطلب تصميمًا أكثر دقة وحيادية لضمان عدم تحول الذكاء الاصطناعي إلى أداة للتصعيد السياسي.
من منصة إكس، حذر مستخدم آخر من قدرة البوتات على "التلاعب بالآراء"، وهو ما يشمل بلا شك إنتاج محتوى مسيء يستهدف شخصيات عامة.
3. تأييد القضية الفلسطينية: جدلية الحياد في قلب الصراعات الجيوسياسية!
مأزق الحساسية السياسية: تُعد القضايا الجيوسياسية المعقدة، مثل الصراع الفلسطيني-الإسرائيلي، ميدانًا خصبًا لكشف مأزق بوتات الدردشة في الحفاظ على الحياد. فالمفارقة تكمن في سعيها لتقديم معلومات شاملة، لكنها قد تقع في فخ التعبير عن ميول سياسية غير مقصودة.
تُظهر بعض النماذج، مثل ديب سيك الصيني، استجابات قد تتماشى مع وجهات نظر الحكومة الصينية، وهذا يثير غضب واشنطن كما يثير تساؤلات جدية حول كيفية تعامل النماذج اللغوية مع قضايا حساسة مثل فلسطين، خاصة وأن بكين لديها مواقف سياسية واضحة حيال هذه القضية.
على سبيل المثال، قد تستخدم البوتات مصطلحات مثل "احتلال" أو "استيطان" بشكل متكرر، وهو ما يُنظر إليه كتأييد لموقف سياسي معين من قبل أطراف أخرى، كما نوقش في تقرير لفرانس 24، تناول تساؤلات حول النفوذ الصيني في الذكاء الاصطناعي.
بين الحياد والانحياز: هذا التحيز المحتمل يمكن أن يُقوض الثقة في حيادية الذكاء الاصطناعي كمصدر للمعلومات، ويُساهم في تعميق الاستقطاب المجتمعي حول قضايا حساسة للغاية.
بالإضافة إلى ذلك، تواجه النماذج تحديًا كبيرًا في مواكبة التغيرات السياسية السريعة بسبب نقطة قطع البيانات (data cut-off point)، مما يؤدي إلى تقديم معلومات قديمة أو غير دقيقة، وهي مشكلة اعترفت بها أوبن إيه آي في وثائقها حول حدود معرفة تشات جي بي تي. هذا المأزق يتطلب تصميم نماذج تأخذ في الاعتبار التنوع السياسي والثقافي العالمي، مع آليات قوية للتحديث المستمر لقواعد المعرفة لضمان الدقة والحياد في تناول القضايا الجيوسياسية.
من منصة إكس، أشار مستخدم إلى تساؤلات حول "وعي" البوتات في معالجة قضايا معقدة، وهو سؤال جوهري حول قدرتها على فهم الحساسيات البشرية.
4. التحيز الثقافي والديني: عندما تشوه الخوارزميات الهويات!
مأزق التنوع الرقمي: تُعد التحيزات الثقافية والدينية من أخطر أشكال التحيز، لأنها تمس صميم هويات الشعوب ومعتقداتهم. المفارقة هنا أن تقنيات صُممت لربط العالم، قد تساهم في إقصاء وتشويه ثقافات بأكملها.
واجه تطبيق جيميني، على سبيل المثال، انتقادات حادة في فبراير 2024 بسبب مشكلة محرجة في توليد الصور، حيث قام بتوليد صور تاريخية غير دقيقة عرقيًا، مثل تصوير جنود نازيين من أعراق متنوعة، أو مؤسسي الولايات المتحدة الأمريكية بخلفيات عرقية غير تاريخية.
هذه الأخطاء، التي يُفترض أنها كانت تهدف إلى تجنب التحيزات السلبية السابقة، أدت إلى تشويه تاريخي وثقافي واضح، مما أثار استياء وغضبًا واسعًا بين المستخدمين والمؤرخين، كما وثقت تقارير رويترز.
الصوت الوحيد: هذا الخلل ينبع بشكل أساسي من بيانات التدريب، التي غالبًا ما تُفضل وجهات نظر ثقافية معينة، خاصة تلك المتاحة بكثرة باللغة الإنجليزية.
هذا النقص في التنوع يجعل النماذج تفتقر إلى فهم الفروق الدقيقة للثقافات الأخرى، أو قد تُنتج محتوى يُعتبر مسيئًا لديانات معينة، أو تُظهر تحيزًا لصالح ديانة على حساب أخرى، كما نوقش مرارًا في مقالات "ميت تكنولوجي ريفيو -MIT Technology Review" التي تناولت قضايا التحيزات الثقافية في النماذج اللغوية.
هذه التحيزات لا تُفقد الثقة في هذه النماذج فحسب، بل تُساهم في نشر صور نمطية أو معلومات غير دقيقة، مما يُعمق الانقسامات المجتمعية بدلًا من ردمها.
5. الخصوصية والتلاعب بالآراء: أبعاد مظلمة لمستقبل الذكاء الاصطناعي!
مأزق الثقة والأمان: إلى جانب التجاوزات الثقافية والسياسية، يواجه الذكاء الاصطناعي مأزقًا خطيرًا يتعلق بخصوصية المستخدمين وقدرته على التلاعب بالرأي العام. فالمفارقة أن أدوات التواصل قد تصبح أدوات للمراقبة والتضليل.
وأثارت منصة ديب سيك مخاوف كبيرة بسبب سياساتها المتعلقة بتخزين بيانات المستخدمين في الصين، مما دفع دولًا مثل كوريا الجنوبية وإيطاليا إلى فرض قيود صارمة على استخدامها، وهو قلق ليس بلا أساس، فقد أشار المراقبون إلى أمر قضائي يجبر "أوبن إيه آي" على الاحتفاظ بسجلات المحادثات، مما يثير مخاوف جدية بشأن خصوصية البيانات الشخصية للمستخدمين.
شبح التلاعب: لكن الخطر لا يقتصر على الخصوصية، بل يمتد إلى إمكانية التلاعب بالآراء، وحذر المراقبون من قدرة البوتات على "التلاعب برأيك في السرّ" في منصات مثل Reddit.
هذه القدرة على صياغة المعلومات والتأثير على المستخدمين بطرق غير واعية تُعد تهديدًا خطيرًا للديمقراطية والرأي العام، خاصة في أوقات الانتخابات أو القضايا الساخنة.
هذه المخاطر المتزايدة تؤكد الحاجة الملحة إلى شفافية غير مسبوقة في استخدام البيانات، وتطوير ضمانات تقنية قوية لمنع أي شكل من أشكال التضليل أو التلاعب.
نحو ذكاء اصطناعي مسؤول؟
يكشف مأزق بوتات الدردشة عن تحديات معقدة في ضمان الحياد الثقافي، القيمي، والسياسي، بالإضافة إلى التحديات الزمنية وأمن البيانات.
من تمجيد شخصيات تاريخية مثيرة للجدل، إلى إنتاج محتوى متحيز أو قديم، ووصولًا إلى تهديدات الخصوصية والتلاعب بالآراء، تتطلب هذه القضايا جهودًا جماعية حاسمة.
المفارقة الأكبر تكمن في أن هذه الطفرة التكنولوجية، التي وُلدت لتحقيق التقدم، قد تُعزز الانقسامات وتُشوه الحقائق إذا لم نتحرك الآن.
يجب على الشركات المطورة العمل بجدية على تحسين جودة بيانات التدريب وتنوعها، وتعزيز آليات التنظيم والتدقيق المستمر، وزيادة الشفافية في عملياتها. كما يجب على الحكومات والهيئات التنظيمية التعاون مع خبراء الأخلاقيات والمجتمع المدني لتطوير أطر تنظيمية صارمة وفعالة تضمن استخدام الذكاء الاصطناعي بمسؤولية، وتحافظ على الثقة العامة، وتتجنب تعزيز الانقسامات.
فهل سيتمكن المجتمع العالمي من توجيه هذه الطفرة الهائلة نحو خدمة البشرية بأكملها، أم سيظل الذكاء الاصطناعي أداة محفوفة بالمخاطر، تائهة بين دقة الخوارزميات وتحيزات البشر؟