تشهد المشاعر تجاه الذكاء الاصطناعي التوليدي تصحيحًا للمسار في أعقاب الأخطاء التي ارتكبتها Google و Microsoft في تنفيذ LLMs.
يعالج الناشرون الآن الآثار المترتبة على العالم الحقيقي للأداة التي يمكنها نشر كميات كبيرة من النسخ في غمضة عين للمستخدمين الذين لديهم خبرة قليلة جدًا في الكتابة. المخاوف بشأن طوفان من القصص المكتوبة ذات الجودة المنخفضة التي تعتمد على الذكاء الاصطناعي والتي تغمر مكاتب التقديم. وفي الوقت نفسه، يطرح آخرون أسئلة جادة حول المكان الذي يحصل فيه الذكاء الاصطناعي على البيانات التي يعيد استخدامها.
الناشر باين بوينت
يشير بيتر بيل من INMA إلى أن اهتمام الناشرين ينقسم إلى شقين عندما يتعلق الأمر ببرامج ماجستير إدارة الأعمال المتكامل مع البحث - الإسناد وعمليات البحث بدون نقرة.
الناشرون غاضبون من احتمال قيام الذكاء الاصطناعي بتجميع المعرفة على الويب لإنشاء إجابات تحادثية لا تشير إلى مصدر هذه المعلومات. وكما يشير بيل، فإن هذا يثير بعض الأسئلة الجادة حول "حقوق الطبع والنشر، والشروط، والدقة، فضلاً عن السؤال الكبير المتعلق بالدفع".
في الوقت نفسه، هناك قلق حقيقي من أن الذكاء الاصطناعي المتكامل في البحث سيؤدي إلى تفاقم مشكلة عمليات البحث بدون نقرة. هذا هو المكان الذي يحصل فيه المستخدم على إجابته من إحدى ميزات بحث Google - مثل المقتطف المميز - دون الحاجة إلى النقر فوق نتيجة بحث.
لقد أبلغت Wired بالفعل عن كيفية تمكن Bing chatbot من إلقاء نظرة خاطفة على نظام حظر الاشتراك غير المدفوع الخاص بـ Wirecutter وتوفير الوصول المجاني إلى المحتوى. لاحظت مجلة Wired أن الناشرين كانوا يدرسون "ما إذا كانوا سيردون على مايكروسوفت".
حركة المرور تدفع الإيرادات. نعم، الأمر أكثر تعقيدًا من ذلك، ولكن ليس كثيرًا. اختر نموذجًا لتحقيق الدخل، وفي نهاية المطاف، إما أن ينجح أو لا يعتمد على عدد الأشخاص الذين يصلون إلى موقعك.
لقد كتبت منذ أكثر من عام بقليل عن كيف كانت News Showcase بمثابة إجابة Google على الضغط التنظيمي العالمي لكل من Facebook وFacebook للدفع مقابل الارتباط بالمقالات الإخبارية.
لم تشهد هذه الحملة في أوروبا توقيع Google على اتفاقيات عرض الأخبار مع الناشرين فحسب (الذين تعرضوا لانتقادات بسبب الافتقار إلى الشفافية)، بل أدت أيضًا إلى إطلاق أداة ترخيص آلية جديدة تسمى Extended News Previews (ENP) ، والذي أصبح الآن جزءًا من من وحدة تحكم بحث جوجل.
في النهاية، قد ينتهي الأمر بالناشرين إلى الشعور بأنهم بحاجة إلى الرد على LLMs المدمجة في البحث من أجل حماية المحتوى الخاص بهم من التفكيك. ويبقى أن نرى ما إذا كان ذلك من خلال الضغط من أجل التغيير التنظيمي أو الدعاوى القضائية.
ونظرًا للنضال السيئ السمعة الذي تبذله الحكومات لمواكبة التغيرات التكنولوجية، فلا تتفاجأ إذا استغرق الأمر سنوات قبل أن نرى أي تغييرات تنظيمية ذات معنى على هذه الجبهة.
جدران الذكاء الاصطناعي
مع أخذ ذلك في الاعتبار، سألت ماهيندرا تشودري، رئيس تحسين محركات البحث للأخبار والتقنية في حالة النشر الرقمي (SODP) واقترح شودري أن كبار ناشري الأخبار - وفي مرحلة ما مقدمي خدمات الاستضافة / حتى مزودي خدمة الإنترنت - سيبدأون في منع روبوتات الذكاء الاصطناعي من فحص مواقعهم.
قال تشودري: “لا أحد يريد إعادة استخدام المحتوى الخاص به بواسطة الذكاء الاصطناعي مجانًا. لكن ناشرو الأخبار إما سيفرضون رسومًا على أنظمة الذكاء الاصطناعي هذه للزحف إلى بياناتهم أو منعهم من الزحف إلى مواقعهم في المقام الأول. وهذا سيجعل نتائج الذكاء الاصطناعي زائدة عن الحاجة ومحبطة.
المحتوى من شركائنا
وأشار إلى أن Google لديها روبوتات متعددة لكل جزء من النتائج - البحث والأخبار والصور وما إلى ذلك - ومن المحتمل أن تستخدم البيانات من كل هذه الروبوتات في برنامج الدردشة Bard AI الخاص بها. وفي الوقت نفسه، يعتمد ChatGPT في الغالب على CCBot .
وقال شودري: "في نهاية المطاف، سيتعين على جميع أدوات الذكاء الاصطناعي التي تقوم بمسح البيانات أن تنشر أسماء الروبوتات الخاصة بها ونطاق IP الذي تستخدمه لفحص الويب بشكل علني، على غرار ما تفعله Google ومحركات البحث الأخرى. وهذا يعني أن ناشري الويب يمكنهم حظرهم إذا رغبوا في ذلك.
ومع اعترافه باحتمالية أن تشهد نسبة النقر إلى الظهور لهذه المواقع شيئًا من الانخفاض في حركة المرور، إلا أنه قال إنه من غير المرجح أن يحدث ذلك الكثير من التأثير. وأشار إلى أنه بعد إطلاق الميزات التي لم تحقق أي نقرات في عمليات البحث، "ظل الناشرون يكتسبون نقرات".