صعب ﺍلمناﻝ

زيزوومى مميز
نجم الشهر
إنضم
8 أبريل 2024
المشاركات
1,355
مستوى التفاعل
1,432
النقاط
560
غير متصل
Yg26Tth.gif



EiamUs6.png



تعهدت شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI وMicrosoft وGoogle وMeta وغيرها، بشكل مشترك بمنع استخدام أدوات الذكاء الاصطناعى الخاصة بها لاستغلال الأطفال وإنشاء مواد الاعتداء الجنسى على الأطفال (CSAM)، وقادت هذه المبادرة مجموعة Thorn and All Tech Is Human المعنية بسلامة الأطفال، وهي منظمة غير ربحية تركز على التكنولوجيا المسئولة.
LnhF5d8.gif

وقال ثورن إن تعهدات شركات الذكاء الاصطناعى "تمثل سابقة رائدة في الصناعة وتمثل قفزة كبيرة في الجهود المبذولة للدفاع عن الأطفال من الاعتداء الجنسي كميزة تتكشف مع الذكاء الاصطناعي التوليدي، والهدف من المبادرة هو منع إنشاء مواد جنسية صريحة تتعلق بالأطفال وحذفها من منصات التواصل الاجتماعي ومحركات البحث، وفقا لتقرير انجادجيت.
LnhF5d8.gif

ويقول ثورن إنه تم الإبلاغ عن أكثر من 104 ملايين ملف لمواد الاعتداء الجنسي على الأطفال المشتبه بها في الولايات المتحدة في عام 2023 وحده، وفي غياب العمل الجماعي، من المتوقع أن يؤدي الذكاء الاصطناعي المنتج إلى تفاقم هذه المشكلة وإرباك وكالات إنفاذ القانون التي تكافح بالفعل لتحديد الضحايا الحقيقيين.
LnhF5d8.gif

وأصدر Thorn وAll Tech Is Human اليوم ورقة بحثية جديدة بعنوان "السلامة من خلال التصميم للذكاء الاصطناعي التوليدي: منع الاعتداء الجنسي على الأطفال" والتي تحدد الاستراتيجيات وتضع توصيات للشركات التي تبني أدوات الذكاء الاصطناعي، ومحركات البحث، ومنصات الوسائط الاجتماعية، والشركات المستضيفة، والمطورين لاتخاذ خطوات لمنع استخدام الذكاء الاصطناعي التوليدي لإيذاء الأطفال.
LnhF5d8.gif

على سبيل المثال تطلب إحدى التوصيات من الشركات اختيار مجموعات البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي بعناية وتجنب تلك التي تحتوي فقط على أمثلة لانتهاكات الاعتداء الجنسي على الأطفال ولكن أيضًا المحتوى الجنسي للبالغين تمامًا بسبب ميل الذكاء الاصطناعي التوليدي إلى الجمع بين المفهومين.
LnhF5d8.gif

ويطلب ثورن أيضًا من منصات وسائل التواصل الاجتماعي ومحركات البحث إزالة الروابط إلى مواقع الويب والتطبيقات التي تسمح للأشخاص "بعرض صور العري" للأطفال، وبالتالي إنشاء مواد جديدة للاعتداء الجنسي على الأطفال من إنتاج الذكاء الاصطناعي عبر الإنترنت.
LnhF5d8.gif

ووفقًا للورقة البحثية، فإن طوفانًا من CSAM الناتج عن الذكاء الاصطناعي سيجعل تحديد الضحايا الحقيقيين للاعتداء الجنسي على الأطفال أكثر صعوبة، في إشارة إلى مقدار المحتوى الذي يجب على وكالات إنفاذ القانون التدقيق فيه حاليًا.
LnhF5d8.gif

وقالت ريبيكا بورتنوف، نائبة رئيس قسم علوم البيانات في ثورن، لصحيفة وول ستريت جورنال: "كان الهدف من هذا المشروع هو التوضيح أن نكون قادرين على تغيير مسار هذه التكنولوجيا بحيث يتم التخلص من الأضرار الحالية لهذه التكنولوجيا.
LnhF5d8.gif

وقال بورتنوف إن بعض الشركات وافقت بالفعل على فصل الصور والفيديو والصوت التي تتضمن أطفالًا عن مجموعات البيانات التي تحتوي على محتوى للبالغين لمنع نماذجها من الجمع بين الاثنين.
LnhF5d8.gif

ويضيف آخرون أيضًا علامات مائية لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، لكن الطريقة ليست مضمونة ويمكن إزالة العلامات المائية والبيانات الوصفية بسهولة.


المصدر :

يجب عليك تسجيل الدخول أو التسجيل لمشاهدة الرابط المخفي

 

التعديل الأخير:
شكرا لك
 
شكرا لك
 
عودة
أعلى