ماذا يحدث؟
إن اختراع تكنولوجيا الذكاء الاصطناعي يثير المخاوف في كافة المجالات، بما في ذلك الصحافة، كما أن وسائل الإعلام الاصطناعية تزيد الأمور سوءا. يركز هذا الدليل على تعريف وسائل الإعلام الاصطناعية وتقنياتها، والأكثر إثارة للصدمة، الإشارات الحمراء للصحافة.
لماذا يهم:
إن الأشكال المختلفة من البيانات التي تشكل المحتوى الإخباري أصبحت على وشك الازدواجية، حيث أصبحت الوسائط الاصطناعية ــ وهي خوارزمية قادرة على التلاعب بالنصوص والصور والمواد السمعية والبصرية ــ متاحة حاليا لأولئك الذين يبحثون عنها.
باستخدام هذا النموذج القائم على الذكاء الاصطناعي، "من الممكن إنشاء" وجوه وأماكن غير موجودة وحتى إنشاء صورة رمزية صوتية رقمية تحاكي الكلام البشري. "( ألدانا فاليس 2019)
تخيل عالمًا، حيث يكون من الصعب جدًا التمييز بين الأخبار المزيفة والحقيقية، حيث يمكن لناشري الأخبار المزيفة تغيير "الأدلة" لتناسب أجندتهم. على سبيل المثال؛ لن يتوقف أحد عن تصديق أن الحرب العالمية الثالثة قد بدأت، إذا تم تداول مقاطع فيديو لترامب وبوتين وكيم وهم يعلنون الحرب على مستوى العالم على الإنترنت. وعلى الرغم من أن الحكومات المعنية قد تدحض مثل هذه الأخبار، إلا أن الذعر النفسي والاقتصادي الذي قد تسببه قد يكون أكبر من تأثير الصاروخ.
حفر أعمق
يمكن إنشاء الوسائط الاصطناعية عبر ثلاثة أشكال من الذكاء الاصطناعي التوليدي، وهي؛ شبكات الخصومة التوليدية (GAN)، وأجهزة التشفير التلقائي المتغيرة، والشبكات العصبية المتكررة. يتم استخدام أجهزة GAI المذكورة أعلاه لإنشاء الصور والفيديو والنصوص على التوالي. يتم استخدام إنشاء الكلمات لأن معظم محتويات الوسائط التي تم إنشاؤها باستخدام هذه الخوارزميات غير موجودة؛ ومع ذلك، يمكن أيضًا استخدام الوسائط الاصطناعية للنسخ.
وفقًا لألدانا فاليس، "تستخدم شبكات الخصومة التوليدية شبكتين عصبيتين (الشبكة العصبية هي نظام حاسوبي يمكنه التنبؤ بالعلاقات والأنماط المعقدة ووضع نماذج لها) تتنافسان ضد بعضهما البعض."
تعمل الشبكتان الأولى والثانية كمولد ومميز بشكل فردي. يشرف جهاز التمييز على المولد، مما يضمن عدم ترك أي حجر دون قلبه. بعد بعض المراجعات "ذهابًا وإيابًا" التي أجراها الثنائي، أصبح المحتوى المنتج مشابهًا للمحتوى الأصلي.
على عكس شبكات الخصومة التوليدية، تسمى الشبكات العصبية في أجهزة التشفير التلقائي المتغيرة التشفير ووحدة فك التشفير، لأن التقنية تتضمن ضغط وإعادة بناء محتوى الفيديو. "يتضمن جهاز فك التشفير نمذجة الاحتمالات التي تحدد الاختلافات المحتملة بين الاثنين حتى يتمكن من إعادة بناء العناصر التي قد تضيع خلال عملية التشفير وفك التشفير." (ألدانا فاليس 2019)
تعمل الشبكات العصبية المتكررة من خلال "التعرف على بنية مجموعة كبيرة من النصوص". هذه هي الطريقة المستخدمة في تطبيق التصحيح التلقائي للنص على الهاتف.
يتم تطبيق هذه التقنيات في مشاريع مختلفة مثل؛ GauGAN و Face2Face وGPT-2. يمكن العثور على أحدث تطبيقات الوسائط الاصطناعية في Siri أو Alexa. يتمتع هؤلاء المساعدون الافتراضيون الآن بالقدرة على "تحويل النص إلى صوت وتقليد الكلام البشري".
في مقال نُشر عام 2017 بعنوان "الإباحية المدعومة بالذكاء الاصطناعي موجودة هنا ونحن جميعًا مخطئون"، كشف موقع Vice عن تداول مقطع فيديو إباحي مزيف، وهو ما لا يمثل مشكلة لأن معظم المؤامرات التي تم تصويرها في الأفلام الإباحية مزيفة (LoL)؛ باستثناء أن الممثل كان له وجه الممثلة غير الإباحية الشهيرة، غال غادوت (المرأة المعجزة). وفي عام 2018 أيضًا، تم تداول "مقطع فيديو يظهر الرئيس باراك أوباما يتحدث عن مخاطر مقاطع الفيديو التي تم التلاعب بها" على موقع Buzzfeed. الشيء الغريب في هذا الفيديو هو أن الموضوع الذي تم إنشاؤه بواسطة الذكاء الاصطناعي له وجه أوباما وصوت جوردان بيل، وذلك بفضل الوسائط الاصطناعية.
المحتوى من شركائنا
هناك حملة مستمرة ضد الضرر المحتمل الذي تسببه الوسائط الاصطناعية على صحة الأخبار؛ ومع ذلك، "بعيدًا عن التقارير... تركز غرف الأخبار على اكتشاف الوسائط الاصطناعية والتحقق من صحة المعلومات." على سبيل المثال، أنشأت صحيفة وول ستريت جورنال دليلاً لغرفة الأخبار ولجنة للكشف عن التزييف العميق . أعلنت صحيفة نيويورك تايمز مؤخرًا أنها تستكشف نظامًا قائمًا على بلوكتشين لمحاربة المعلومات الخاطئة عبر الإنترنت. (ألدانا فاليس 2019)
الحد الأدنى
يمكن للوسائط الاصطناعية أن تساعد وكالات الأنباء على كسر حاجز اللغة بسهولة. كما أنها يمكن أن تشجع على تداول الأخبار المزيفة. وفي حين أنه من المستحيل منع شركات التكنولوجيا العملاقة من الغوص في أبحاث تكنولوجيا الذكاء الاصطناعي، إلا أنه يمكن للصحفيين تعلم كيفية التحكم في الضرر الذي تسببه الوسائط الاصطناعية.