There is no information on the number of devices and recordings Apple detects an error recording your conversations

لا توجد معلومات عن عدد الأجهزة والتسجيلات.. آبل تكتشف خطأ يقوم بتسجيل محادثاتك  أقرت شركة آبل (Apple) بوجود خطأ في نظام "آي أو إس 15" (iOS 15) ربما يكون قد تسبب بتسجيل تفاعلات المستخدمين مع سيري (Siri) على بعض الأجهزة، وفقًا لتقرير من موقع زد نت (ZDNet).  ومكّن الخطأ تلقائيًا ميزة سيري لتحسين الإملاء عند الكتابة، وذلك بمنح الإذن لآبل بتسجيل محادثاتك وتخزينها ومراجعتها مع سيري.  وأخبرت آبل موقع ذي فيرج (The Verge) أنها حددت الخطأ بعد فترة وجيزة من إصدار "آي أو إس 15" وتوقفت عن مراجعة أي تسجيلات تم تلقيها عن غير قصد، وحذفت المعلومات الواردة من الأجهزة المتأثرة.  وبعد اكتشاف الخطأ، قامت الشركة بإيقاف تشغيل الميزة "للعديد من المستخدمين" وصححت الإعداد الخاطئ بإصدارها تحديث "آي أو إس 15.2".   وهذا هو السبب الذي يظهر لك طلبا سريعا للحصول على إذن منك لتمكين ميزة تحسين سيري للإملاء لتسجيل محادثاتك، والذي كان يظهر بمجرد تثبيت الإصدار التجريبي الجديد "آي أو إس 15" أو إصداره الرسمي.  وقالت المتحدثة باسم الشركة كاثرين فرانكلين في بيان لموقع ذي فيرج "مع نظام التشغيل آي أو إس 15.2، قمنا بإيقاف تشغيل إعداد تحسين سيري للإملاء للعديد من مستخدمي سيري أثناء إصلاحنا للخلل الذي تم تقديمه في نظام التشغيل آي أو إس 15".  وأضافت "أدى هذا الخطأ غير المقصود إلى تسجيل المحادثات لجزء صغير من الأجهزة. ومنذ تحديد الخطأ، توقفنا عن مراجعة التسجيلات وحذفنا التسجيلات المستلمة من جميع الأجهزة المتأثرة".  ويبدو أن هذا خطأ خطير بما يكفي لدرجة أن آبل وجدت أنه يجب تحذير المستخدمين صراحة، وحثهم على التأكد من تحديث أجهزة آيفون الخاصة بهم مع إخطار أي شخص متأثر.   ولا يزال بيان الشركة يفتقد للشفافية الكافية حول عدد الهواتف التي تأثرت ومتى.  وبدون هذه الشفافية، لا توجد طريقة لمعرفة من قد يكون قد سجل محادثاتك واستمع إليها من قبل موظفي آبل، لذلك إذا كان لديك جهاز آيفون، فقد يكون الوقت مناسبًا الآن للتحديث إلى "آي أو إس 15.2" أو إصدار أحدث (إذا لم تكن قد قمت بذلك بالفعل).  وبالنسبة إلى المستخدمين الذين لم يجروا الترقية إلى "آي أو إس 15.2" أو إصدار أحدث، أكدت آبل أنها توقفت عن مراجعة التسجيلات واستمرت في حذف أي بيانات تم تلقيها.  وقال بيان لمتحدث باسم الشركة أن آبل تحذف ولم تعد تراجع التسجيلات من المستخدمين الذين لم يجروا الترقية بعد إلى "آي أو إس 15.2".   There is no information on the number of devices and recordings Apple detects an error recording your conversations  Apple has acknowledged a bug in iOS 15 that may have caused users' interactions with Siri to be recorded on some devices, according to a report from ZDNet.  The bug automatically enabled Siri to improve dictation when typing, by giving Apple permission to record, store, and review your conversations with Siri.  Apple told The Verge that it identified the bug shortly after the release of iOS 15, stopped reviewing any inadvertently received recordings, and deleted information from affected devices.  After discovering the error, the company turned off the feature for “many users” and corrected the wrong setting by releasing the iOS 15.2 update.  Which is why a quick request for your permission to enable Siri's dictation optimization feature to record your conversations appears as soon as you install the new iOS 15 beta or official version.  "With iOS 15.2, we turned off the Siri Dictation optimization setting for many Siri users while we fixed a bug that was introduced in iOS 15," company spokeswoman Katherine Franklin said in a statement to The Verge.  "This unintended bug resulted in conversations being recorded for a small portion of the devices. Since the bug was identified, we've stopped reviewing the recordings and deleted the received recordings from all affected devices."  This appears to be a serious enough bug that Apple has found that users should be explicitly warned, urging them to make sure their iPhones are updated while notifying anyone affected.  The company's statement still lacks sufficient transparency about how many phones were affected and when. Without this transparency, there's no way of knowing who might have recorded your conversations and listened to them by Apple employees, so if you have an iPhone, now might be a good time to update to iOS 15.2 or later (if you haven't already). already so).  For users who haven't upgraded to iOS 15.2 or later, Apple confirmed that it has stopped reviewing recordings and continues to delete any data received.  A statement from a company spokesperson said that Apple is deleting and no longer reviewing recordings from users who have not yet upgraded to iOS 15.2.

There is no information on the number of devices and recordings Apple detects an error recording your conversations


Apple has acknowledged a bug in iOS 15 that may have caused users' interactions with Siri to be recorded on some devices, according to a report from ZDNet.

The bug automatically enabled Siri to improve dictation when typing, by giving Apple permission to record, store, and review your conversations with Siri.

Apple told The Verge that it identified the bug shortly after the release of iOS 15, stopped reviewing any inadvertently received recordings, and deleted information from affected devices.

After discovering the error, the company turned off the feature for “many users” and corrected the wrong setting by releasing the iOS 15.2 update.

Which is why a quick request for your permission to enable Siri's dictation optimization feature to record your conversations appears as soon as you install the new iOS 15 beta or official version.

"With iOS 15.2, we turned off the Siri Dictation optimization setting for many Siri users while we fixed a bug that was introduced in iOS 15," company spokeswoman Katherine Franklin said in a statement to The Verge.

"This unintended bug resulted in conversations being recorded for a small portion of the devices. Since the bug was identified, we've stopped reviewing the recordings and deleted the received recordings from all affected devices."

This appears to be a serious enough bug that Apple has found that users should be explicitly warned, urging them to make sure their iPhones are updated while notifying anyone affected.

The company's statement still lacks sufficient transparency about how many phones were affected and when.
Without this transparency, there's no way of knowing who might have recorded your conversations and listened to them by Apple employees, so if you have an iPhone, now might be a good time to update to iOS 15.2 or later (if you haven't already). already so).

For users who haven't upgraded to iOS 15.2 or later, Apple confirmed that it has stopped reviewing recordings and continues to delete any data received.

A statement from a company spokesperson said that Apple is deleting and no longer reviewing recordings from users who have not yet upgraded to iOS 15.2.

الوجه المُظلم لفيسبوك.. لماذا تتخاذل منصات التواصل عن محاربة المعلومات المضللة؟  لا تتوقف التداعيات السلبية للأخبار الكاذبة في النطاقات الصحية عند حد التأثيرات النفسية، إذ تمتد مُسبّبة أضرارا مباشرة تصل إلى حد الوفاة. ومن هنا وجب علينا أن نتساءل عن السبب في انتشار تلك النوعية من المعلومات المضللة، أهي فقط طبيعة البشر الذين يعشقون الإثارة والفكر المؤامراتي، أم أن المنصات التي تُنشر عليها تلك الأخبار لها دور في تلك الكارثة؟ لماذا يتردد فيسبوك في حذف حسابات المشاهير الذين يضللون الناس؟ ولِمَ تسمح المنصة بانتشار المعلومات المضللة في المجموعات والصفحات التي يجتمع فيها المتطرفون سياسيا؟ والأهم من ذلك، لِمَ تمنع منصات يوتيوب وتويتر وفيسبوك الباحثين في هذه النطاقات من الوصول إلى جميع المعلومات المطلوبة لتحليل الظاهرة؟!  مادة الترجمة تَعَرّض فيسبوك مؤخرا إلى انتقادات عديدة بسبب السماح للمعلومات الطبية المضللة بالانتشار على المنصة، وظهرتْ بعض المستندات الداخلية المُسرَّبة التي تشير إلى أن فيسبوك قد يكون أسوأ مما كنا نعتقد سابقا، وأنه يغض الطرف عن هذه المعلومات عمدا. وتُعدّ هذه المعلومات المغلوطة مصدر قلق رئيسيّا، إذ توصلت إحدى الدراسات إلى أن المشاركين الذين تلقوا معلوماتهم من فيسبوك كانوا على الأرجح أكثر ميلا لمقاومة اللقاحات من أولئك الذين تلقوا معلوماتهم من وسائل الإعلام الرئيسية.  بصفتي باحثا في وسائل الإعلام الاجتماعية والمدنية، فإنني أعتقد أن فهمنا لكيفية انتشار المعلومات المُضللة على الإنترنت هو أمر بالغ الأهمية، لكن دائما ما نجد أن الأقوال أسهل من الأفعال. إن مجرد إحصاء المعلومات المُضللة على منصات التواصل الاجتماعي سيُحيلنا إلى سؤالين رئيسين دون إجابة: أولهما، ما مدى احتمالية أن يصادف المستخدمون هذه المعلومات المُضللة؟ وثانيهما، هل من المحتمل أن يكون لهذه المعلومات تأثير مختلف على المستخدمين؟  أثر فيسبوك في أغسطس/آب 2020، نشرت مؤسسة "آفاز" (وهي منصة غير ربحية مهتمة بقضايا حقوق الإنسان والكشف عن المعلومات الخاطئة) دراسة تفيد بأن خوارزميات فيسبوك المسؤولة عن كشف المعلومات المضللة تُشكل تهديدا كبيرا للصحة العامة، إذ وجدوا أن المصادر التي شاركت معلومات صحية مضللة بصورة متكررة -تقريبا 82 موقعا إلكترونيا و42 صفحة على فيسبوك- حققتْ نسب مشاهدة تصل إلى حوالي 3.8 مليار مشاهدة في السنة.  للوهلة الأولى قد يُدهشك الرقم، لكن من المهم أيضا أن تفهم أننا إذا تعاملنا مع المسألة حسابيا واعتبرنا أن 3.8 هو البسط، فسنحتاج في هذه الحالة إلى حساب المقام لإدراك ما تعنيه نسبة المشاهدة هذه، فإذا اعتبرنا المقام المحتمل هو 2.9 مليار، والذي يشير إلى عدد المستخدمين النشطاء شهريا على الفيسبوك، فسنجد في متوسط أن كل مستخدم صادف على الأقل معلومة واحدة مُضللة من هذه المصادر.  لكن الأمر ليس بهذه البساطة. يُقدّر الباحثون في مجال التسويق الإلكتروني أن مستخدمي فيسبوك يقضون وقتا يتراوح ما بين 19-38 دقيقة يوميا على المنصة. في هذه الحالة، إذا اعتبرنا أن 1.93 مليار مستخدم نشط يرى كل منهم ما يعادل 10 منشورات يوميا -على أقل تقدير- فيمكننا بحسبة بسيطة أن نصل إلى نسبة انتشار هذه المنشورات المضللة على فيسبوك، وذلك بضرب هذين الرقمين في عدد أيام السنة (365)، ليظهر لنا الناتج 7.044 تريليون، وهو ما سنعتبره المقام للبسط الذي سبق وذكرنا أنه 3.8 مليار مشاهدة. بمعنى أبسط، ستكون النتيجة النهائية لقسمة البسط على المقام هي 0.05%، وهي نسبة المنشورات المُضللة.  حينما نعلن أن نسبة مشاهدة المحتوى على هذه الصفحات هي 3.8 مليار، فإن ذلك يعني أن هذه النسبة تغطي المحتوى الكامل بما فيه المفيد أيضا، واستنادا إلى ما استخلصناه سابقا حول نسبة المنشورات المضللة التي لا تتعدى 1/20 بالمئة (0.05%)، فإن ذلك قد يجعلنا نتساءل: هل علينا أن نقلق بالفعل إزاء الانتشار الواسع لهذه المعلومات المُضللة التي صادفها كل مستخدم ولو مرة واحدة على الأقل، أم أنه من المطمئن أن 99.95٪ من منشورات الفيسبوك ليست من المصادر التي تحذّر منها مؤسسة "آفاز"؟  ما يستحق القلق لا يجب أن نقلق في الحقيقة بسبب أي مما سبق، لكن ما يستحق القلق فعلا هو آلية توزيع هذه المعلومات، فنتساءل إن كان من المحتمل فعلا أن يواجه كل مستخدم للفيسبوك معلومات صحية مُضللة بشكل عشوائي، أم أن الموضوع في الأصل انتقائي، يركز على الأشخاص الذين عبّروا عن رفضهم للقاحات أو من يبحثون عن معلومات "صحية بديلة" ليكونوا هم الأكثر عرضة لهذا المحتوى.  لتوضيح ذلك، قدمت دراسة أخرى تركز على المحتوى المتطرف على يوتيوب طريقة لفهم توزيع المعلومات المضللة، وذلك عن طريق دراسة الخوارزميات التي يجري عبرها إظهار المحتوى المتطرف، وذلك المحتوى الذي يدعم التطرف الأبيض، وقد خلص القائمون على الدراسة إلى تركز عرض المحتوى العنصري بين الأميركيين الذين يُضمرون بالفعل آراء عنصرية واستياء عرقيا، ومن ثم فإن خوارزميات اليوتيوب قد تعزز هذا النمط.  ظهرت دراسة أخرى نشرها مركز مكافحة خطاب الكراهية الرقمية بعنوان "مستغلو الجائحة"، درست 30 مجموعة من مجموعات فيسبوك المناهضة للقاحات، وبينت أن هناك اثني عشر شخصا فقط من المشاهير استغلوا المجموعات لإقناع الناس بعدم تلقي اللقاح وكانوا مسؤولين عن حوالي 70% من المحتوى المضلل المتداول على منصات التواصل الاجتماعي، وأشهر ثلاثة منهم تسببوا في تداول ما يقرب من نصف هذه النسبة. ولكن -مرة أخرى- من المهم أن نتساءل: كم عدد المجموعات المناهضة للقاحات التي يسمح لها فيسبوك بالبقاء؟ وما النسبة المئوية للمستخدمين الذين يواجهون هذا النوع من المعلومات التي تنشرها هذه المجموعات؟  بعيدا حتى عن آليات القسمة والتوزيع ومحاولة معرفة النسب الحقيقية، فإن مثل هذه الأنواع من الدراسات تثير حقا تساؤلات مهمة على غرار: "إذا كان الباحثون يستطيعون بالفعل العثور على هذا المحتوى، فلماذا لا تستطيع منصات التواصل الاجتماعي التعرف عليه وإزالته رغم أن فيسبوك وحده قادر على حل 70% من مشكلات التضليل هذه بحذف عشرات الحسابات فقط؟". ظلت هذه المشكلة قائمة حتى أواخر أغسطس/آب الماضي، إلى أن بدأ فيسبوك أخيرا بحذف 10 حسابات من أصل 12 حسابا لنشطاء ومشاهير مناهضين للقاحات.  لنأخذ على سبيل المثال المُنتِج الأميركي "ديل بيغتري" الذي يُعد أحد أبرز النشطاء المناهضين للقاحات على فيسبوك. مشكلة "بيغتري" مثلا ليست في تجنيده متابعين جُدُدا لمكافحة اللقاحات، وإنما في متابعة مستخدمي فيسبوك لمنشوراته على مواقع أخرى، وجلب هذا المحتوى لمشاركته على فيسبوك. وكما نرى، فإن الأمر لا يقتصر فقط على 12 فردا يروجون لمعلومات صحية مُضللة، بل يتجاوز الأمر أبعد من ذلك ليصل إلى آلاف من مستخدمي الموقع الذين يشاركون هذه المعلومات مع غيرهم. لذا، بات الأمر معقدا، لأن حظر حسابات الآلاف من مستخدمي فيسبوك أصعب بكثير من حظر اثني عشر ناشطا مناهضا للقاحات. يُعد هذا هو السبب الرئيسي في أن مسائل القسمة والتوزيع ضرورية لفهم نسبة انتشار المعلومات الخاطئة على الإنترنت، إذ تسمح للباحثين بالتساؤل عن مدى شيوع أو ندرة مثل هذه السلوكيات ومن يشاركها.  إذا كان الملايين من المستخدمين يواجهون أحيانا بعض المعلومات الصحية المضللة، فإن علامات التحذير المقترنة بهذه المنشورات قد يكون لها دور فعال، لكنها تفقد تأثيرها إن كان مصدر تداول هذه المعلومات هو مجموعة أصغر تبحث بنشاط عن هذا المحتوى وتشاركه. إن محاولة فهم المعلومات المضللة من خلال عدها دون النظر إلى مسائل القسمة والتوزيع هو ما يحدث حينما لا تجد النوايا الحسنة في طريقها سوى أدوات سيئة، فلا يتيح أي موقع من مواقع التواصل الاجتماعي للباحثين أن يجروا حساباتهم بدقة حول مدى انتشار محتوى معين على الموقع.   فمثلا، يفرض فيسبوك قيودا على معظم الباحثين، فيتيح لهم فقط أدوات مثل "كراود تانجل (Crowd tangle)" (وهي واحدة من أحدث أدوات البحث التي أطلقها فيسبوك لمراقبة المعلومات العامة، وفهم كيفية انتشار المعلومات)، لكن هذه الأداة مخصصة لحساب عدد مشاهدات المحتوى، دون نسب وطريقة التوزيع. وبالمثل، فإن معظم منصات التواصل الاجتماعي تسير على نفس نهج فيسبوك، فيمنع تويتر الباحثين بصورة صريحة من حساب عدد مستخدميه أو عدد التغريدات التي يشاركونها في اليوم الواحد. ولا يقل اليوتيوب صرامة عنهم في جعل الأمور أصعب على الباحثين لمعرفة عدد مقاطع الفيديو التي يستقبلها الموقع، لدرجة أن شركة جوجل تطلب بانتظام من المرشحين لوظائفها تقدير عدد مقاطع الفيديو التي يستقبلها يوتيوب لتقييم مهاراتهم الحسابية.  مؤخرا زعم قادة هذه المنصات أن أدواتهم على الرغم من مشكلاتها فإنها مفيدة للمجتمع، لكن حجتهم هذه ستكون أكثر إقناعا لو أتاحوا للباحثين فرصة للتحقق من هذا الادعاء بأنفسهم. ولأن تأثيرات وسائل التواصل الاجتماعي باتت أكثر انتشارا وهيمنة، فعلى الأرجح سيزداد الضغط على شركات التكنولوجيا الكبيرة للإفصاح عن مزيد من البيانات المتعلقة بمستخدميها والمحتوى الذي يشاركونه. ولو افترضنا أن هذه الشركات استجابت بالفعل وسمحت للباحثين بالوصول إلى المزيد من المعلومات، فهل يا تُرى ستسمح لهم بإجراء عمليات حسابية دقيقة لفهم طريقة توزيع المحتوى؟ وإن رفضت ذلك، فهل لأنها تخشى مما قد يتوصل إليه الباحثون في النهاية؟  ________________________________  ترجمة: سمية زاهر   هذا التقرير مترجم عن The Atlantic ولا يعبر بالضروة عن موقع ميدان.   The dark face of Facebook Why are communication platforms failing to combat misinformation?  Introduction to translation The negative repercussions of false news in health domains do not stop at the psychological effects, as they extend causing direct damage up to the point of death. Hence, we must ask the reason for the spread of this type of misinformation, is it only the nature of humans who love excitement and conspiracy thought, or do the platforms on which such news are published have a role in that disaster? Why is Facebook reluctant to delete the accounts of celebrities who mislead people? Why does the platform allow misinformation to spread in groups and pages where extremists meet politically? More importantly, why do YouTube, Twitter and Facebook platforms prevent researchers in these domains from accessing all the information needed to analyze the phenomenon?!  Translation material Facebook has recently come under fire for allowing medical misinformation to spread on the platform, and some leaked internal documents have emerged suggesting that Facebook may be worse than we previously thought, and that it is deliberately turning a blind eye to this information. This misinformation is a major concern, as one study found that participants who received their information from Facebook were more likely to resist vaccinations than those who received their information from the mainstream media.  As a researcher of social and civic media, I believe that our understanding of how misinformation spreads on the Internet is crucial, but we always find it easier said than done. Simply counting misinformation on social media platforms leads us to two main unanswered questions: First, how likely are users to encounter this misinformation? Second, is this information likely to have a different impact on users?  Facebook trace In August 2020, the Avaaz Foundation (a non-profit platform concerned with human rights issues and the disclosure of misinformation) published a study stating that Facebook's algorithms responsible for detecting misinformation pose a major threat to public health, as they found that sources that shared misleading health information Frequently - about 82 websites and 42 Facebook pages - they have about 3.8 billion views per year.  At first glance the number may surprise you, but it is also important to understand that if we approach the problem mathematically and consider 3.8 as the numerator, in this case we will need to calculate the denominator to understand what this viewership means, if we consider the potential denominator is 2.9 billion, which indicates a number Monthly active users on Facebook, we will find on average that each user encounters at least one misleading piece of information from these sources.  But it is not that simple. Email marketing researchers estimate that Facebook users spend between 19-38 minutes per day on the platform. In this case, if we consider that 1.93 billion active users, each of whom sees the equivalent of at least 10 posts per day, we can simply calculate the prevalence of these misleading posts on Facebook, by multiplying these two numbers by the number of days in the year (365), So we get 7.044 trillion, which we will consider as the denominator of the numerator that we mentioned before is 3.8 billion views. In simpler terms, dividing the numerator by the denominator will be 0.05%, which is the proportion of misleading publications.  When we announce that the viewership of content on these pages is 3.8 billion, this means that this percentage covers the entire content, including the useful ones as well, and based on what we have previously concluded about the percentage of misleading posts that does not exceed 1/20% (0.05%), that It might make us wonder: Should we really be concerned about the prevalence of this misinformation that every user has encountered at least once, or is it reassuring that 99.95% of Facebook posts aren't from Avaaz's warnings?  What is worth worrying about In fact, we should not worry about any of the above, but what is really worth worrying about is the mechanism of distribution of this information, so we wonder if it is really likely that every Facebook user will encounter misleading health information at random, or is the topic originally selective, focusing on people who Those who reject vaccines or who are looking for “alternative health” information are the ones most exposed to this content.  To clarify this, another study focusing on extremist content on YouTube provided a way to understand the distribution of misinformation, by studying the algorithms through which extremist content is shown, and that content that supports white extremism, and the study authors concluded that the display of racist content is concentrated among Americans who They already harbor racist views and ethnic resentment, so YouTube's algorithms may reinforce this pattern.  Another study published by the Center for Combating Digital Hate Speech entitled “Pandemic Exploiters”, which examined 30 anti-vaccine Facebook groups, showed that only twelve celebrities took advantage of the groups to persuade people not to receive the vaccine and were responsible for about 70% of the misleading content circulating. On social media platforms, the three most popular of them accounted for nearly half of that percentage. But - again - it is important to ask: How many anti-vaccine groups does Facebook allow to survive? What percentage of users encounter this type of information are published by these groups?  Far from even distributing mechanics and trying to find out the true proportions, these types of studies really raise important questions such as: “If researchers can actually find this content, why can’t social media platforms identify and remove it even though Facebook alone is able to Solve 70% of these misinformation problems by deleting dozens of accounts only? This problem persisted until late August, when Facebook finally began deleting 10 out of 12 accounts of anti-vaccine activists and celebrities.  Take, for example, the American producer, Dale Pettry, who is one of the most prominent anti-vaccine activists on Facebook. The problem of “Bigtree”, for example, is not in recruiting new followers to fight vaccines, but in Facebook users following his posts on other sites, and bringing this content to share on Facebook. As we can see, it is not only about 12 individuals who promote misleading health information, but it goes further to reach thousands of site users who share this information with others. So, it becomes complicated, because banning the accounts of thousands of Facebook users is much more difficult than banning a dozen anti-vaccine activists. This is the main reason why quotient and distribution problems are essential to understanding the prevalence of misinformation online, allowing researchers to question how common or rare such behaviors are and who shares them.  If millions of users sometimes encounter some misinformation about health, the warning signs associated with these posts may be effective, but they lose their effect if the source of this information is a smaller group actively searching for and sharing this content. Trying to understand misinformation by counting it without looking at issues of division is what happens when good intentions find only bad tools in the way. No social media site allows researchers to accurately calculate the prevalence of certain content on the site.  For example, Facebook imposes restrictions on most researchers, allowing them only tools such as Crowd Tangle (one of the latest search tools that Facebook launched to monitor public information and understand how information spreads), but this tool is intended for counting the number of views of content. , without proportions and method of distribution. Likewise, most social media platforms follow the same path as Facebook, with Twitter explicitly prohibiting researchers from counting the number of its users or the number of tweets they share in a day. YouTube is no less strict about making it more difficult for researchers to see how many videos the site receives, to the point that Google regularly asks job candidates to estimate the number of videos YouTube receives to assess their computational skills.  Recently, leaders of these platforms have claimed that their tools, despite their problems, are beneficial to society, but their argument would be more convincing if they gave researchers a chance to verify this claim for themselves. And as the effects of social media become more pervasive and dominant, pressure will likely increase on big tech companies to disclose more data about their users and the content they share. Assuming that these companies actually responded and allowed researchers to access more information, would they allow them to perform precise calculations to understand how the content is distributed? And if she refuses, is it because she fears what researchers might find in the end?  Translation: Somaya Zaher This report has been translated from The Atlantic and does not necessarily reflect the website of Meydan.

The dark face of Facebook Why are communication platforms failing to combat misinformation?


Introduction to translation
The negative repercussions of false news in health domains do not stop at the psychological effects, as they extend causing direct damage up to the point of death. Hence, we must ask the reason for the spread of this type of misinformation, is it only the nature of humans who love excitement and conspiracy thought, or do the platforms on which such news are published have a role in that disaster? Why is Facebook reluctant to delete the accounts of celebrities who mislead people? Why does the platform allow misinformation to spread in groups and pages where extremists meet politically? More importantly, why do YouTube, Twitter and Facebook platforms prevent researchers in these domains from accessing all the information needed to analyze the phenomenon?!

Translation material
Facebook has recently come under fire for allowing medical misinformation to spread on the platform, and some leaked internal documents have emerged suggesting that Facebook may be worse than we previously thought, and that it is deliberately turning a blind eye to this information. This misinformation is a major concern, as one study found that participants who received their information from Facebook were more likely to resist vaccinations than those who received their information from the mainstream media.

As a researcher of social and civic media, I believe that our understanding of how misinformation spreads on the Internet is crucial, but we always find it easier said than done. Simply counting misinformation on social media platforms leads us to two main unanswered questions: First, how likely are users to encounter this misinformation? Second, is this information likely to have a different impact on users?

Facebook trace
In August 2020, the Avaaz Foundation (a non-profit platform concerned with human rights issues and the disclosure of misinformation) published a study stating that Facebook's algorithms responsible for detecting misinformation pose a major threat to public health, as they found that sources that shared misleading health information Frequently - about 82 websites and 42 Facebook pages - they have about 3.8 billion views per year.

At first glance the number may surprise you, but it is also important to understand that if we approach the problem mathematically and consider 3.8 as the numerator, in this case we will need to calculate the denominator to understand what this viewership means, if we consider the potential denominator is 2.9 billion, which indicates a number Monthly active users on Facebook, we will find on average that each user encounters at least one misleading piece of information from these sources.

But it is not that simple. Email marketing researchers estimate that Facebook users spend between 19-38 minutes per day on the platform. In this case, if we consider that 1.93 billion active users, each of whom sees the equivalent of at least 10 posts per day, we can simply calculate the prevalence of these misleading posts on Facebook, by multiplying these two numbers by the number of days in the year (365), So we get 7.044 trillion, which we will consider as the denominator of the numerator that we mentioned before is 3.8 billion views. In simpler terms, dividing the numerator by the denominator will be 0.05%, which is the proportion of misleading publications.

When we announce that the viewership of content on these pages is 3.8 billion, this means that this percentage covers the entire content, including the useful ones as well, and based on what we have previously concluded about the percentage of misleading posts that does not exceed 1/20% (0.05%), that It might make us wonder: Should we really be concerned about the prevalence of this misinformation that every user has encountered at least once, or is it reassuring that 99.95% of Facebook posts aren't from Avaaz's warnings?

What is worth worrying about
In fact, we should not worry about any of the above, but what is really worth worrying about is the mechanism of distribution of this information, so we wonder if it is really likely that every Facebook user will encounter misleading health information at random, or is the topic originally selective, focusing on people who Those who reject vaccines or who are looking for “alternative health” information are the ones most exposed to this content.

To clarify this, another study focusing on extremist content on YouTube provided a way to understand the distribution of misinformation, by studying the algorithms through which extremist content is shown, and that content that supports white extremism, and the study authors concluded that the display of racist content is concentrated among Americans who They already harbor racist views and ethnic resentment, so YouTube's algorithms may reinforce this pattern.

Another study published by the Center for Combating Digital Hate Speech entitled “Pandemic Exploiters”, which examined 30 anti-vaccine Facebook groups, showed that only twelve celebrities took advantage of the groups to persuade people not to receive the vaccine and were responsible for about 70% of the misleading content circulating. On social media platforms, the three most popular of them accounted for nearly half of that percentage. But - again - it is important to ask: How many anti-vaccine groups does Facebook allow to survive? What percentage of users encounter this type of information are published by these groups?

Far from even distributing mechanics and trying to find out the true proportions, these types of studies really raise important questions such as: “If researchers can actually find this content, why can’t social media platforms identify and remove it even though Facebook alone is able to Solve 70% of these misinformation problems by deleting dozens of accounts only? This problem persisted until late August, when Facebook finally began deleting 10 out of 12 accounts of anti-vaccine activists and celebrities.

Take, for example, the American producer, Dale Pettry, who is one of the most prominent anti-vaccine activists on Facebook. The problem of “Bigtree”, for example, is not in recruiting new followers to fight vaccines, but in Facebook users following his posts on other sites, and bringing this content to share on Facebook. As we can see, it is not only about 12 individuals who promote misleading health information, but it goes further to reach thousands of site users who share this information with others. So, it becomes complicated, because banning the accounts of thousands of Facebook users is much more difficult than banning a dozen anti-vaccine activists. This is the main reason why quotient and distribution problems are essential to understanding the prevalence of misinformation online, allowing researchers to question how common or rare such behaviors are and who shares them.

If millions of users sometimes encounter some misinformation about health, the warning signs associated with these posts may be effective, but they lose their effect if the source of this information is a smaller group actively searching for and sharing this content. Trying to understand misinformation by counting it without looking at issues of division is what happens when good intentions find only bad tools in the way. No social media site allows researchers to accurately calculate the prevalence of certain content on the site.

For example, Facebook imposes restrictions on most researchers, allowing them only tools such as Crowd Tangle (one of the latest search tools that Facebook launched to monitor public information and understand how information spreads), but this tool is intended for counting the number of views of content. , without proportions and method of distribution. Likewise, most social media platforms follow the same path as Facebook, with Twitter explicitly prohibiting researchers from counting the number of its users or the number of tweets they share in a day. YouTube is no less strict about making it more difficult for researchers to see how many videos the site receives, to the point that Google regularly asks job candidates to estimate the number of videos YouTube receives to assess their computational skills.

Recently, leaders of these platforms have claimed that their tools, despite their problems, are beneficial to society, but their argument would be more convincing if they gave researchers a chance to verify this claim for themselves. And as the effects of social media become more pervasive and dominant, pressure will likely increase on big tech companies to disclose more data about their users and the content they share. Assuming that these companies actually responded and allowed researchers to access more information, would they allow them to perform precise calculations to understand how the content is distributed? And if she refuses, is it because she fears what researchers might find in the end?

Translation: Somaya Zaher
This report has been translated from The Atlantic and does not necessarily reflect the website of Meydan.

Post a Comment

Previous Post Next Post