لعقود، رحبت مواقع الويب ببرامج البحث. فقد كان استخراج البيانات من قبل غوغل أو أي محرك بحث آخر، يعني فهرستها وتصنيفها واكتشافها. وذلك يعني زيادة حركة مرور الويب وزيادة الأعمال. ولكن الآن، مع تسابق أدوات الذكاء الاصطناعي المولّدة لاستيعاب الإنترنت بالكامل، فإن استخراج البيانات أصبح يعني تجاوز مواقع الويب.
بينت الدراسات أنه من بين 1500 زيارة لروبوت الدردشة ChatGPT، هنالك فقط مستخدم واحد حقيقي يتم إرساله إلى موقع الويب. أما بالنسبة لشركة Anthropic، فإن هذا الرقم يصبح مستخدم واحد حقيقي مقابل 3000 زيارة لروبوت الذكاء الاصطناعي. وهذا يدل على تراجع حركة الزيارات البشرية، بينما تشهد حركة الزيارات الآلية ارتفاعاً حاداً.
وعلى عكس عصر غوغل، لا تربط هذه الروبوتات عادةً بمصادرها. بدلاً من ذلك، تُلخص نماذج الذكاء الاصطناعي الإجابات وتقدمها داخل واجهاتها الخاصة، مما يبقي المستخدمين مقيدين، ويُقصي المواقع الإلكترونية ومُنشئي المحتوى عن دائرة المعلومات.
وتعتبر هذه الظاهرة بأنها من أعمق التحولات التي شهدها عالم الإنترنت؛ لأنها ستُغير جذرياً كيفية عثور الناس على العلامات التجارية وتفاعلهم معها. وبالنسبة لبعض الشركات، قد تُمثل تهديداً وجودياً. وهذا يُمثل جوهر المشكلة.
تجوب الروبوتات الإنترنت منذ أوائل التسعينيات. وبحلول الوقت الذي ظهر فيه برنامج البحث الخاص بغوغل، والذي عُرف لاحقًا باسم Googlebot على الإنترنت عام 1996، ساد منطق جديد يقول «دع محركات البحث تفحص محتوى صفحتك، وفي المقابل، سترسل إليك زيارات».
وفي السنوات الثلاثين التالية، حدد هذا المنطق مفهوم الويب وأصبحت نتائج غوغل هي كل شيء، وعاشت مواقع الويب أو ماتت بناءً على ترتيبها في نتائج البحث.
كذلك، نشأت قطاعات كاملة، ناهيك عن ممارسات الاستشارات حول تحسين محركات البحث وهندسة المعلومات، واستراتيجية المحتوى، لمساعدة الشركات على تحسين أدائها. لكن الذكاء الاصطناعي لا يلتزم بالقواعد القديمة. فبدلاً من ربط المواد بمصادرها، تقوم برامج مثل ChatGPT وClaude وحتى Gemini بقراءتها وإعادة توظيفها، مُجيبةً على استفسارات المستخدمين مباشرةً، وفي الغالب دون أي إشارة إلى المصدر.
أدى هذا التحول إلى ظهور اختصار جديد يعرف بـAEO بدل SEO، ويعني تحسين محركات البحث بالذكاء الاصطناعي. فروبوتات الذكاء الاصطناعي تجمع ما يمكنها الوصول إليه، وتُظهره بتنسيق يجرد الموقع من قيمته، حيث لا نقرات ولا رصيد، بل فقط إجابات.
وأكدت الدراسات أنه على مستوى منظومة الإنترنت الأوسع، يأتي أكثر من 50% من إجمالي حركة مرور الإنترنت الآن من الروبوتات. ومع ارتفاع حركة المرور هذه، بدأت بعض الشركات في وضع حد لذلك من خلال إنشاء نسختين من مواقعهم الإلكترونية، إحداهما مصمّمة للبشر، مع مرئيات وتفاعل وسرد قصصي يحمل هوية الشركة، والأخرى مجرّدة ومخصصة لسهولة القراءة الآلية، ومصمّمة لتغذية الذكاء الاصطناعي. والنتيجة هي انقسام هادئ للإنترنت بين نسخة مصممة لإسعاد المستخدمين، وأخرى مصممة لتزويد برامج البحث بالذكاء الإصطناعي بمحتوى محدد فقط بهدف حماية القيمة التي لا تزال تستحق النقر.
بالنسبة لبعض الشركات، قد يكون جمع البيانات بواسطة الذكاء الاصطناعي مربحاً تجارياً. لكن هذا المنطق ينهار بالنسبة للشركات التي تعتمد على حجم الزيارات والقراء، وخاصةً وسائل الإعلام والمبدعين وأي شخص يعتمد نموذجه على حركة مرور الويب التقليدية. فإذا لخص روبوت محادثة مقالاً إخبارياً أو استخرج حقائق أساسية من دليل أو مراجعة، فقد لا ينقر المستخدم أبداً على رابط الموقع مصدر الخبر. وعدم النقر يعني عدم ظهور الإعلانات، وعدم الاشتراك في البريد الإلكتروني، وعدم وجود بيانات للجمهور، وعدم وجود إيرادات، وعدم وجود أي قيمة محققة من أي نوع.
وفي مواجهة هذا الفصل البطيء للمحتوى عن حركة المرور، يقاوم الناشرون وتحاول مواقع الويب أن تبقى على قيد الحياة، حتى أن بعضهم وقّع على اتفاقيات ترخيص تسمح لبعض شركات الذكاء الاصطناعي بالوصول إلى محتواهم مقابل رسوم باهظة.