بعد انتقادات واسعة: "ميتا" تشدّد قيود الأمان على روبوتات الدردشة بالذكاء الاصطناعي

هذه التطورات تعكس التحديات المتصاعدة أمام "ميتا" في ميدان الذكاء الاصطناعي، حيث تحاول الشركة التوازن بين تقديم تجارب جديدة للمستخدمين والحفاظ على سمعتها في ظل تزايد المخاوف من الأضرار الأخلاقية والقانونية لهذه التقنيات...

سبتمبر 2, 2025 - 20:29
بعد انتقادات واسعة: "ميتا" تشدّد قيود الأمان على روبوتات الدردشة بالذكاء الاصطناعي

أعلنت شركة "ميتا" عن إدخال مجموعة جديدة من قيود الأمان على روبوتات الدردشة المدعومة بالذكاء الاصطناعي التي تقدمها عبر منصاتها المختلفة، وذلك عقب موجة من الانتقادات والتحقيقات التي طالت الشركة بسبب محتوى غير ملائم واتهامات بانتهاك خصوصية المستخدمين.

التقارير السابقة كشفت عن أن وثائق التدريب الداخلية لنماذج "ميتا" سمحت للروبوتات بخوض محادثات ذات طابع رومانسي أو إيحاءات حسية حتى مع المراهقين، وهو ما أثار جدلًا واسعًا في الولايات المتحدة. وردّ المتحدث باسم الشركة آندي ستون بالتأكيد أن "ميتا" بدأت بالفعل في تطبيق قيود جديدة مؤقتة، على أن يجري تعزيزها بشكل تدريجي لضمان "تجربة آمنة ومسؤولة".

الخطوة تأتي في وقت تواجه فيه الشركة ضغوطًا سياسية متزايدة، إذ أعلن السيناتور الأميركي جوش هاولي عن فتح تحقيق موسع في سياسات "ميتا" الخاصة بالذكاء الاصطناعي، مطالبًا الشركة بالكشف عن كافة وثائق التدريب. وقد لقي التحقيق دعمًا من نواب من كلا الحزبين، ما يعكس حجم القلق في واشنطن من مخاطر هذه التقنية.

إلى جانب ذلك، أثار تقرير منفصل نشرته "رويترز" مزيدًا من الجدل بعد أن كشف عن استخدام "ميتا" صور وأسماء عدد من المشاهير – بينهم تايلور سويفت وسكارليت جوهانسون وآن هاثاواي وسيلينا غوميز – في بناء روبوتات دردشة غرامية، بعضها صُمم ليُقدَّم على أنه النسخة الحقيقية للممثل أو الممثلة، بل إن بعض هذه الروبوتات ولّدت صورًا مثيرة للجدل بناءً على طلب المستخدمين.

ورغم ذلك، شددت الشركة على أن سياساتها الرسمية تمنع بشكل صارم توليد صور مخلة أو انتحال الهوية، لكنها تسمح بتصميم روبوتات تستلهم شخصية المشاهير طالما تم توضيح أنها روبوتات هزلية وليست بديلاً عن الشخصيات الحقيقية.

هذه التطورات تعكس التحديات المتصاعدة أمام "ميتا" في ميدان الذكاء الاصطناعي، حيث تحاول الشركة التوازن بين تقديم تجارب جديدة للمستخدمين والحفاظ على سمعتها في ظل تزايد المخاوف من الأضرار الأخلاقية والقانونية لهذه التقنيات.