“ميتا” تحجب شخصيات الذكاء الاصطناعي عن المراهقين
ميتا تقيد وصول المراهقين لشخصيات الذكاء الاصطناعي
بدأت شركة ميتا بتطبيق إجراءات صارمة تمنع المستخدمين القاصرين من الوصول إلى روبوتات الدردشة التي تجسد شخصيات افتراضية، وذلك عبر منصاتها وتطبيقاتها المختلفة. يهدف هذا القرار الاستراتيجي إلى تحجيم المخاطر المرتبطة بتفاعل صغار السن مع النماذج اللغوية الكبيرة التي قد تنتج محتوى غير منضبط.
شملت التحديثات الجديدة حظر أدوات إنشاء الشخصيات أو التفاعل مع الروبوتات المصممة لأغراض الترفيه الاجتماعي داخل منتجات مثل “AI Studio”. يأتي التحرك استجابة لتقارير رصدت إمكانية توليد هذه الأنظمة لنصوص أو سيناريوهات ذات طابع غير ملائم للفئات العمرية دون سن الثامنة عشرة.
دوافع الحظر ومعايير السلامة الرقمية
تواجه أنظمة الذكاء الاصطناعي التوليدي تحديات تقنية تتعلق بـ “هلوسة” النماذج وقدرتها على تجاوز مرشحات الأمان في سياقات معينة. تسعى ميتا من خلال هذا الحظر إلى إغلاق الثغرات التي قد تسمح للمراهقين بالانخراط في محادثات ذات إيحاءات جنسية أو عنيفة مع الشخصيات الافتراضية المصممة للمحاكاة البشرية.
تتمحور المخاوف الأساسية حول ما يُعرف بالعلاقات “شبه الاجتماعية” (Parasocial Relationships)، حيث قد يطور المراهقون ارتباطاً عاطفياً غير صحي مع الكيانات الرقمية. يؤدي هذا التفاعل إلى مخاطر نفسية محتملة، مما دفع الشركة لإعطاء الأولوية للسلامة النفسية على حساب التوسع في نشر الميزات التفاعلية لفئة الشباب.
الامتثال التنظيمي ومستقبل التطوير
يتماشى هذا التوجه مع الضغوط المتزايدة من الجهات التشريعية العالمية التي تطالب بضوابط أكثر صرامة لحماية القاصرين في البيئات الرقمية. تعمل ميتا على مواءمة خوارزمياتها مع لوائح السلامة المستجدة لتقليل المسؤولية القانونية وضمان بيئة استخدام نظيفة وخالية من الاستغلال الخوارزمي.
ستفرض هذه السياسات على المطورين وصناع المحتوى داخل بيئة ميتا إعادة التفكير في تصميم الشخصيات الافتراضية. سيتحول التركيز مستقبلاً نحو التطبيقات الخدمية والوظيفية للذكاء الاصطناعي، بدلاً من التركيز على روبوتات الدردشة التي تحاكي العلاقات الشخصية والتي أثبتت أنها مساحة عالية المخاطر بالنسبة للمستخدمين دون السن القانوني.