
"الهراء هو من أبرز السمات الثقافية في عالمنا اليوم". أحيل في هذا الاقتباس إلى كلام ورد على لسان الفيلسوف الأميركي هاري فرانكفورت في كتابه "عن الهراء"، On Bullshit. و"اليوم"، الذي كان فرانكفورت يقصده، كان قبل عشرين عامًا، أي حين نشر ورقته التي تحولت إلى كتاب عام 2005. لم نكن، حينذاك، قد احتكّينا بالذكاء الاصطناعي التوليدي.
سأتدرّج هنا في حديثي عن الهراء بتعريفه أولًا، ثم بالحديث عن بعض أوجه استخداماته، مرورًا بعلاقته بالخوارزميات، وصولًا إلى أشكال العلاقة المحتملة بين الذكاء الاصطناعي والهراء.
هاري فرانكفورت، الفيلسوف الذي ذكرتُه في المطلع، عرّف الهراء بأنه ينطوي على "غياب الصلة بالاهتمام بالحقيقة" (lack of connection to a concern with truth). وصاحب الهراء، بالمناسبة، ليس كاذبًا. فالفارق بين من يروّج للهراء والكاذب، كما يقول فرانكفورت، هو أن الأول – أي الـ bullshitter – يركّز على الصورة العامة أكثر من التفاصيل. وتركيزه يميل إلى تقديم تحليل أقل، وارتجال أكبر. أما الثابت فأن الناس يميلون إلى التساهل مع الهراء أكثر من الكذب. فالهراء، بما أنه لا يركّز على التفاصيل، يُميّع الحدود الفاصلة بين المعلومة والرأي، ويخلق لنفسه قدرة على التملّص من الحاجة إلى الإثبات. بمعنى آخر، فطالما أن الكلام عام، يصبح قوله أشبه بحقٍ من حقوق التعبير، بمعزل عن حجم الصدق فيه أو التضليل.
والتكنولوجيا فاقمت مشكلة الهراء. أصبحت التغطية الإخبارية أكثر تحزّبًا. وأصبح الانحياز التأكيدي (confirmation bias)، أي المَيلُ إلى الاستماع إلى معلومات تؤكد معتقداتنا الحالية، أكثر وضوحًا. وترافق هذا كلّه مع نمو عوالم معرفية تتسم بالقبلية، أو إبستيمولوجيا قبلية (tribal epistimologies)، أي أن المعايير الحاكمة لمعرفتنا أصبحت أسيرة القبيلة التي نحن منها؛ القبيلة الإلكترونية أو الافتراضية. أصبحنا نعيش في غرف صدى (echo chambers) حيث لا يتعرض الواحد منا إلا لآراء ومعلومات تُعزّز معتقداته الخاصة، وتُستَبعد فيها الآراء المخالفة أو تُهاجَم. صحيح أن الخوارزميات صُممت لتقدم لنا ما نفضله على "التايم لاين"، لكنها، بإقفال الباب علينا، مارست ديكتاتورية بيّنة.
وتوازيًا مع هذا التقوقع المعرفي على السوشال ميديا، ظهرت أنماط جديدة من البروباغندا التي لا تقوم بالضرورة على الكذب الصريح. اليوم، مثلًا، تُستخدم استراتيجية الـ firehose أو "خرطوم الإطفاء"، التي تقوم على إغراق الجمهور بكمّ هائل من المعلومات، بغض النظر عن صحّتها أو تناقضها، بهدف خلق حالة من الارتباك والتشويش الذي يحول دون تمكّن المتلقين من التمييز بين الحقيقة والزيف.
يخلق الإغراق بالمعلومات لدينا ما يُعرَف بـ"الحِمل الإدراكي" (cognitive load)، أي أننا نتلقى كمية كبيرة من المعلومات التي نجد أنفسنا مضطرين لهضمها في وقت قياسي. المشكلة أنه عندما تتجاوز كمية المعلومات قدرة العقل على التخزين والمعالجة، نصبح غير قادرين على الاحتفاظ بالمعلومة أو ربطها بما هو مُخزَّن سابقًا من معلومات في ذاكرتنا الطويلة الأمد.
حينذاك، يصبح صعبًا التمييز بين المعلومات المهمة وتلك غير المهمة، أو بين الكلام الذي له معنى والضجيج، ونتحوّل إلى مستهلكين سلبيين للبيانات فحسب. نلتقط ما يُعرض أمامنا من دون تقييم، ومن دون تمييز بين معلومة صحيحة وأخرى مزيفة.
الخوارزميات لغة الذكاء الاصطناعي الذي يوجّه اهتماماتنا على السوشال ميديا، والذي بات شريكًا لنا في الحياة اليومية، وأحيانًا، شريكًا في قتلنا في الحروب أيضًا
والإغراق بالمعلومات يُفيد في ملء الفراغ بما لا أهمية له، وبما يَصعُب على أحد تفنيده حتّى. ويُمكن لإغراق كهذا أن يُستخدم حتى في الأعمال الصحفية أو البحثية. فالبعض، مثلًا، يستشهد بعدد كبير من الكتّاب الآخرين لدعم وجهة نظره. وبهذا يكون كمن يقول "إذا شكّكت بي، فأنت تشكّك بمن أُحيل إليهم في سياق المحاججة". لا يعود مهمًا هنا اتساق المنهجية والمنطق، بل يصبح الأساس إحالة تليها أخرى ثم أخرى، حتى يصبح تتبّع المنطق الأصلي صعبًا.
وفضلًا عن الإغراق بالمعلومات، كثيرًا ما يجد الهراء لنفسه ملاذًا في الأدلة الكمية (quantitative evidence) كما يقول لنا كارل بيرغستروم (Carl Bergstrom) وجيفين ويست (Jevin West) في كتابهما "فضح الهراء" Calling Bullshit.
فالأرقام عادة ما تكون من أفضل الوسائل لنشر الهراء لأنها ببساطة تبدو ذات مصداقية. إذ للأرقام هالة؛ فهي توحي على الدوام بأنها حصيلة معادلة لا لبس فيها. والأرقام قاطعة ـــ أو هكذا تبدو ـــ فإبراز نسبة مئوية بالاستناد إلى دراسة ما، يوحي بأن ما قيل نتاج مجهود بحثي خارق. وحتى لو شككنا فيها، فإن تفنيدها لن يكون سهلًا. إذ يستلزم هذا معرفة كيفية اختيار العيّنة، وما إذا كانت العيّنة المُختارة تمثيلية، وما إذا كانت سائر الخطوات المُتبعة تنطوي على منهجية سليمة... وما إلى ذلك. من هنا، فلا عجب أن يستخدم أحد ملوك التضليل في السياسة، الرئيس الأميركي دونالد ترمب، هذا الأسلوب. ظهر هذا بشكل واضح، مثلًا، أثناء حربه التجارية مع الصين وشرحه الوفورات التي تنتجها سياساته الجمركية على حد زعمه. صحيح أن كلامه فُنّد لاحقًا في الإعلام. لكنّ التفنيد لم يعد مؤثرًا بمجرد أن قام ترمب بتعميم هذه المزاعم.
والحديث عن الأرقام يُحيلنا إلى الخوارزميات. وإذا كان للأرقام هالة، فللخوارزميات سُلطة. فهي عقل الذكاء الاصطناعي الذي بات يُتيح محو الفوارق بين الحقائق والأخبار والصور المُختلقة، بل الذي بات يُشاطرنا اتخاذ القرارات أيضًا.
سأبدأ هنا من زعم شائع مفاده أن الخوارزميات لا تخضع للتحيّزات. يقول الزعم الشائع إنها محايدة. علمية. تمامًا كالأرقام. ولأن طريقة عمل الخوارزميات في العادة غير واضحة أو غير مفهومة لمعظم المتلقين، بل أحيانًا للمطوّرين أنفسهم، فإنها توصف بـ"الصندوق الأسود" (black box)، لكنّ التعامل معها بوصفها كذلك، أي بوصفها صندوقًا أسود ينطوي على تعقيدات رياضية وخلاصات يصعب تفسيرها، لا يعني أنها عصيّة على التحيّز. فالصندوق الأسود هذا يُغذّى ببيانات. والخوارزميات ليست أفضل من بياناتِ التدريب التي تتعلّم هذه الخوارزميات منها. طبيعي، والحال هذه، أن تكون منحازة بدورها.
وفي الواقع ينبغي التشكيك بالبيانات لمجرد حيازتها سلطة تمييزِِ الصح عن الخطأ وتحديد كل منهما. يمكن هنا أن نستعيد دعوة ميشيل فوكو إلى التشكيك الدائم بما يمتلك سلطة علينا. وقد طبّق فوكو ذلك على اللغة بوصفها تعبيرًا عن سلطة سياسية واجتماعية من جملة أمور أخرى. يمكن القول، على سبيل القياس، إن الخوارزميات لغة بحد ذاتها؛ لغة الذكاء الاصطناعي. ذاك الذي أصبح موجِهًا لاهتماماتنا على السوشال ميديا، والذي يصبح اليوم، بشكل متدرج، شريكًا لنا في الحياة اليومية، وأحيانًا، شريكًا في قتلنا في الحروب أيضًا.
لقد أصبح التوسّع السريع في قدرات أدوات الذكاء الاصطناعي في السنوات الأخيرة، في ظل غياب قوانين واضحة تُنظّم استخدامه، محلّ جدل كبير: هل يمكن للذكاء الاصطناعي بخوارزمياته أن يضاعف من حجم الهراء ومعه التضليل والفُقاعات والعوالم الموازية، أم أنه قادر على تجسير الفجوات بين الحقائق وما هو مُختلق منها؟
وكما دائمًا لدى ظهور مؤثر جديد على حياتنا وأنماط علاقاتنا ومجالات إدراكنا وأعمالنا، ثمة وجهات نظر عدّة تحول دون الحسم في وجهة الأمور. والذكاء الاصطناعي ليس مؤثرًا بسيطًا على كل ما سلف ذكره. بل إن البعض يرى أن أثره قد يكون تحويليًا (transformative) بقدر ما كانت الثورة الصناعية تحويلية في نمط الإنتاج والاستهلاك.
الذكاء الاصطناعي لن يعيد إنتاج حقائق مُختلقة أو مُتخيلة فحسب، بل تكمن المخاطر في تسهيله جعل الهراء أصلًا ثابتًا، فيما منطق الأمور وحقائقها تصبح استثناء
لكن هل لهذا المؤثّر الضخم وجهة سلبية أم إيجابية على إدراكنا؟
المتفائلون يرون أن الذكاء الاصطناعي أصبح يشكل أداة قيّمة لكشف المعلومات الكاذبة وتفنيد نظريات المؤامرة، وما أكثرها. بل ثمة من يرى فيه تحديًا لقوقعاتنا. "التشات بوت" ـــ أي روبوت المحادثة ـــ مثلًا، بإمكانه أن يجعلَك تُشكك في معتقداتك نفسها.
في المقابل، هناك من يرى أن الذكاء الاصطناعي سهّل تداولَ محتوى مزيّف على نطاق واسع ومعلومات كاذبة تُنتَج من خلال روبوتات المحادثة.
ثمة شخصيات بارزة ـــ بل بالغة القدرة ـــ كدونالد ترمب مثلًا، ساهمت في نشر مقاطع سياسية مُزيفة منتَجة بالذكاء الاصطناعي. ففي آب/أغسطس 2024، مثلًا، نشر ترمب صورة مولَّدة بالذكاء الاصطناعي تُظهر المغنية تايلور سويفت وهي تعلن دعمها لـ"الحزب الجمهوري"، وكذلك صورة لنائبة الرئيس آنذاك كامالا هاريس وهي ترتدي زيًّا شيوعيًا.
وفي وقت لاحق من أيلول/سبتمبر، انتشر على وسائل التواصل الاجتماعي مقطع فيديو مزيف يُظهر كامالا هاريس متورطة في حادث دهس وفرار، وحقق هذا ملايين المشاهدات. كما استُخدمت تقنيات ذكاء اصطناعي بشكل استراتيجي للتأثير على نتائج التصويت في الولايات الأميركية المتأرجحة.
في المقابل، برز الاستخدام السياسي للذكاء الاصطناعي في سياقات احتجاجية ضد أنظمة أوتوقراطية أيضًا. ففي بيلاروسيا، مثلًا، أنشأت المعارضة عام 2024 مرشحًا سياسيًا مولَّدًا بالذكاء الاصطناعي في محاولة لزيادة وصولها إلى الناخبين البيلاروس.
"ياس غاسبادر"، "التشات بوت" الذي عرّف عن نفسه بأنه رجل يبلغ من العمر 35 عامًا، من مينسك، كان مرشح هذه المعارضة الممنوعة من خوض الانتخابات. ميزة غاسبادر كانت أنه عصي على الاعتقال. كان ذكاءً اصطناعيًا مفيدًا في ظلّ غياب القدرة على الاعتراض السياسي الفيزيائي.
غير أن مشكلة الذكاء الاصطناعي أنه ليس منحازًا للبيانات التي تُلقّم له فحسب، بل للمُمسكين بالموارد المحدِّدة لوجهات استخدامه. وطالما أن هذا الاستخدام غاياته ربحية أساسًا، وطالما أنه مُقيّد باعتبارات سياسية وأمنية كبرى، يصعب أن يكون ذا وجهة تساعدنا على الإفلات من الهراء المتراكم في فضاءاتنا الإلكترونية والمنعكس على فضاءاتنا الحياتية الأخرى.
وبما أن الذكاء الاصطناعي قادر على مضاعفة الإنتاج والأثر، تعالوا نتخيّل إعادة إنتاج الهراء على نطاق واسع في ما يخص قضايا هذا المشرق. تخيّلوا إعادة تقديم أكثر إبادة جماعية موثقة في التاريخ ــــ في غزة ــــ بوصفها رواية قابلة للنقض. مجرّد إشكالية أكاديمية معلّقة قابلة للنقاش بشكل بارد. شيء أشبه بنفي وقوع "الهولوكوست"، أو حتى أبعد من ذلك. رواية مفادها أن الفلسطينيين لم يكونوا موجودين أصلًا. أنهم أسطورة مخترعة.
تخيّلوا أن يُعاد إنتاج مظلوميّات أهل هذه المنطقة، مظلوميات الشيعة في العراق والسنة في سوريا، وبعدها المظلوميات المتشكلة بعد سقوط الديكتاتوريات، السنية في العراق والعلوية في سوريا، وقس على ذلك في لبنان ومصر وغيرهما. أتحدث هنا عن المظلوميات المبنية على توصيفات جوهرانية تُطلَق على هذه الطائفة أو تلك. تخيّلوا أن نعيش ضخًا يوميًا مكثفًا من المعلومات التي تعيد إنتاج حلقات لا متناهية من الفقاعات التي نصبح أسراها، ولا يمكننا الخروج منها. أن نصبح أسرى مظلوميات متناسلة على الدوام.
المشكلة أن ما ذكر كله حاصل من دون تدخل الذكاء الاصطناعي. حاصل سواء تخيّلناه أم لم نتخيّله. الإبادة في غزة، اليوم، موضع جدل بارد في الغرب، في الإعلام والأكاديميا. لا حاجة لنا إلى خيال. والمظلوميات في منطقتنا تتصل بصفات جوهرانية ثابتة للمظلومين والظالمين. أو هكذا يظن أهل المظلومية، سواء على هذه الضفة أو تلك أو تيك. ما الذي غيّره الذكاء الاصطناعي إذًا؟
إذا أردنا أن نُعمل خيالنا، يمكن القول إن الذكاء الاصطناعي لن يعيد إنتاج حقائق مُختلقة أو مُتخيلة فحسب، بل تكمن المخاطر في تسهيله جعل الهراء أصلًا ثابتًا، فيما منطق الأمور وحقائقها تصبح استثناءً. الخطر، بمعنى من المعاني، يكمن لا في سيادة الكذب، بل في سيادة الهراء. ذاك الذي يصعب دحضه، ويصبح معه كل ما يقال وجهة نظر، يعاوننا على تأكيدها صندوق خوارزميات أسود معصوم عن الخطأ والتحيّز ــــ أو هكذا نظن ــــ له قولٌ وازنٌ، وفاصلٌ أحيانًا، في كلّ ما نقوم به.
ورقة قُدّمت في مؤتمر من تنظيم "أوان" بعنوان
"الذكاء الاصطناعي والوصول إلى المعلومات"
AI and Access to Information