من قبل سيرجيو أماديو دا سيلفيرا *
مخاطر الآثار الضارة للغاية على المجتمعات.
هناك منطق يعززه السيادة النيوليبرالية الحالية بأنه يجب استخدام جميع التقنيات المبتكرة. يمكن العثور على شكل مختلف لهذا الفكر في عبارة "عندما تكون التكنولوجيا ذات أهمية تجارية ، فلا توجد طريقة لإيقافها". ومع ذلك ، فإن الحقائق تشير إلى احتمالات أخرى. تم حظر العديد من التقنيات وغيرها ، بعد فترة معينة ، تم حظرها.
على سبيل المثال ، تعتبر الأسلحة الكيميائية غير مقبولة والدول الديمقراطية لا تستخدمها. تم إلغاء العديد من مبيدات الآفات ، مثل DDT الخطير. في عام 2015 ، وقع المئات من الشخصيات ، بما في ذلك نعوم تشومسكي وستيفن هوكينغ ، خطابًا مفتوحًا بعنوان "الأسلحة المستقلة: رسالة مفتوحة من باحثي الذكاء الاصطناعي والروبوتاتداعيا إلى حظر أسلحة الذكاء الاصطناعي. وضع الاتحاد الأوروبي وقفا اختياريا على الجينات المعدلة وراثيا لأكثر من خمس سنوات. أخيرًا ، لطالما تم تنظيم العديد من التقنيات من قبل الديمقراطيات ، لأن تصنيعها أو استخدامها يمكن أن يجلب مخاطر وآثارًا ضارة للغاية على المجتمعات.
في الوقت الحالي ، تتزايد التعبئة العالمية لحظر تقنيات التعرف على الوجه. في عام 2019 ، قبل الوباء ، قرر المشرعون في سان فرانسيسكو ، كاليفورنيا ، حظر استخدام التعرف على الوجه من قبل الوكالات المحلية ، بما في ذلك الشرطة وسلطات النقل. كما تم تحديد أن أي تقنية مراقبة تحتاج إلى موافقة مسؤولي المدينة ، ولم يعد من الممكن اعتبارها قرارًا تقنيًا حصريًا. السبب بسيط. لا تفوق فوائد التعرف على الوجه مخاطره واستخداماته الخطيرة. وفقًا للعديد من أعضاء مجلس مدينة سان فرانسيسكو ، تم استخدام هذه التكنولوجيا لزيادة إضعاف الفئات الاجتماعية المهمشة.
وفقًا لشبكة المراصد الأمنية ، في البرازيل ، 90٪ من الأشخاص الذين تم القبض عليهم بسبب التعرف على الوجه هم من السود. تستخدم القياسات الحيوية لتحديد الوجوه بشكل عام ما يسمى بخوارزميات تحديد الهوية. التعلم العميق أو التعلم العميق ، وهو أحد فروع تقنيات الذكاء الاصطناعي التي تعتمد على الكثير من البيانات للحصول على جودة مقبولة. بشكل عام ، يتم تدريب هذه الخوارزميات على قواعد بيانات الصور لتحسين استخراج أنماط الوجه وقدرتها على تحديد الوجوه.
أثبت الباحث في مختبر MIT-Media Joy Joy Buolamwini أن خوارزميات التعلم الآلي يمكن أن تميز على أساس الطبقة والعرق والجنس. في نص موقع مع Timnit Gebru يسمى الظلال بين الجنسين: تفاوتات الدقة المتقاطعة في تصنيف الجنس التجاري، قام Buolamwini بتحليل 3 أنظمة تصنيف جنسانية تجارية من مجموعة من الصور. ووجدوا أن النساء ذوات البشرة الداكنة كانوا أكثر المجموعات التي تم تصنيفها بشكل خاطئ (مع معدلات خطأ تصل إلى 34,7٪).
من المهم أن نفهم كيف يعمل نظام التعرف على الوجه الخوارزمي. إنها عملية آلية تقارن صورة تم التقاطها بواسطة كاميرا أو جهاز تجميع بالصور المخزنة في قاعدة بيانات. تتمثل إحدى مهام الخوارزمية الأولى في القدرة على اكتشاف وجه الشخص داخل الصورة. بعد اكتشاف الوجه ، يجب أن يتم محاذاته ، ووضعه فعليًا في وضع معين يسهل المرحلة التالية ، وهي استخراج القياسات. الخوارزمية حسب تدريباتها السابقة ، ستقيس المسافة بين العينين ، بين العينين والأنف ، موضع الفم ، نسيج الجلد ، باختصار ، سوف تستخلص القياسات من الصورة ، ستحدد هو - هي.
بعد ذلك ، بناءً على النموذج الخاص بك ، ستقوم بمقارنة الصورة الكمية مع كل من الصور التي تم مسحها ضوئيًا وإدراجها في قاعدة البيانات الخاصة بك. وبالتالي ، تُصدر الخوارزمية نتيجة أثناء مقارنة صورتين ، وجهان ، أحدهما الهدف والآخر المخزن في بنية البيانات. كما حاولت أن أوضح هنا ، فإن أنظمة التعرف احتمالية. لا يمكنهم الإجابة عما إذا كانت تلك الصورة لشخص معين أم لا. أنها توفر نسب التشابه والاختلاف.
يمكن لبعض الأنظمة أن تقدم النسبة المئوية للمقارنة بين عدة صور وتقدم بدائل للوجه لتحديد هدف معين. يعد التدريب على الخوارزميات أمرًا ضروريًا لتكون قادرًا على استخراج الأنماط من الصور ، حيث يجب عليهم استخراج الأنماط من الصور في المواضع المختلفة. تتطلب هذه العملية آلاف الصور لتنفيذ التدريب. غالبًا ما يحتاجون إلى التعزيزات والعلامات التي يقوم بها البشر.
يمكن أن يساعدنا عمل الطائرات العسكرية بدون طيار التي تستخدم أنظمة تحديد الوجه في فهم هذه المشكلة. الباحث جريجوري إس ماكنيل ، في النص "الممارسة الأمريكية لتقدير الأضرار الجانبية والتخفيف من حدتها"، تحليل الآثار الجانبية للهجمات التي نفذتها طائرات بدون طيار. تحتوي هذه المركبات الجوية غير المأهولة على كاميرات عالية الدقة تسمح بتحديد الأهداف. قام ماكنيل بتقييم الأضرار الجانبية التي تسببها الطائرات بدون طيار والتي أسفرت عن مقتل مدنيين في العراق وأفغانستان. وخلصت إلى أن 70٪ منها كانت بسبب أخطاء في الكشف عن الهوية ، أي أنها تنطوي على ما يسمى بفشل "التحديد الإيجابي". ولكن ما هو التعريف الإيجابي في النظام الاحتمالي؟ 80٪ تشابه؟ 90٪؟ 98٪؟ ما هي النسبة المقبولة بالنسبة لنا لاعتبار أنه تم الكشف عن شخص مطلوب؟
التعرف على الوجه هو مقياس حيوي ويشكل فئة ما يسمى بالبيانات الحساسة. يمكنهم خلق وصمات العار. إنهم بحاجة إلى تحليل استخداماتهم من المبدأ الوقائي. يتم استخدامها حاليًا لتحديد الفئات الخطرة والشرائح المهمشة. أنها تسمح بالسعي وراء الأهداف في الوقت الحقيقي. تعزز أنظمة التعرف على الوجه الآلية الأحكام المسبقة وتوسع العنصرية البنيوية في المجتمع ، فضلاً عن تفضيل مضايقة المثليين والمتحولين جنسياً والناشطين غير المرغوب فيهم للشرطة. إنها تقنيات التحرش واليقظة والاضطهاد.
في البرازيل ، أنا شخص أبيض. بالنظر إلى عمري ونوع جسدي ، إذا أخطأ نظام خوارزميات الشرطة في التعرف علي من الكاميرات في حي الطبقة الوسطى الذي أعيش فيه ، فمن المحتمل أن يتطلب الأمر نهجًا أكثر تحضرًا. يمكن حتى نقلها إلى مركز الشرطة. هناك سيتم الكشف عن خطأ نظام التعرف على الوجه والإبلاغ عن "إيجابية كاذبة".
ومع ذلك ، تخيل أن رجلاً أسودًا يصل من العمل في جارديم أنجيلا أو سابوبمبا ويتم التعرف عليه عن طريق الخطأ من خلال نظام التعرف على الوجه باعتباره مجرمًا خطيرًا. اعتمادًا على وحدة روتا التي اقتربت منه ، قد لا تكون لديه أي فرصة للبقاء على قيد الحياة. أدعي أن تقنيات التعرف على الوجه يمكن أن تسهم ، اليوم ، في ممارسات إبادة الشباب السود في الأطراف. يمكن أن تعمل على اضطهاد قادة الحركات الاجتماعية سياسياً ، لا سيما في المناطق التي توضع فيها الميليشيات في جهاز الدولة.
علاوة على ذلك ، يعد تحديد الهوية باستخدام المقاييس الحيوية جهازًا نموذجيًا لأجهزة تحسين النسل القديمة. يتم استخدامها لتحديد المهاجرين والقطاعات غير المرغوب فيها في أوروبا والولايات المتحدة. في الصين ، يخدمون نظامًا استبداديًا غير مقبول في ظل نظام ديمقراطي. سيتم تغيير درجات الأشخاص الذين تم تحديدهم بواسطة الكاميرات المرتبطة بأنظمة التعرف على الوجه والذين يقومون بأفعال غير موصى بها وسيواجهون صعوبات في الحصول على مزايا من الدولة.
بدون إمكانية الدفاع ، وبدون القدرة على الطعن في نموذج الاحتمال للاعتراف ، فإن ممارسة الشرطة في كل مكان من خلال الكاميرات التي تغذي أنظمة التعرف على الوجه غير مقبولة في الديمقراطيات. نحن بحاجة إلى وقف توسعها. في الواقع ، نحن بحاجة إلى حظرها إذا أردنا أن يكون لدينا الحد الأدنى من الاتساق مع المبدأ الوقائي. لا يمكننا استخدام تقنية تستخدم أنظمة خوارزمية معيبة ولا تزال لا تسمح بتفسير كافٍ. نحتاج إلى حظر تقنيات التعرف على الوجه حتى تصبح غير تمييزية اجتماعيًا وقابلة للتدقيق وأكثر أمانًا.
* سيرجيو أماديو دا سيلفيرا هو أستاذ في الجامعة الفيدرالية ABC. المؤلف ، من بين كتب أخرى ، من البرمجيات الحرة - الكفاح من أجل حرية المعرفة (كونراد).