أثارت تقارير متداولة على بعض المنصات جدلاً واسعاً بعد الإشارة إلى احتمال استخدام نموذج الذكاء الاصطناعي "Claude"، الذي تطوره Anthropic، في عمليات تتعلق بتتبع أو استهداف شخصيات سياسية، من بينها Nicolás Maduro.
لكن حتى الآن، لا توجد تأكيدات رسمية من الجهات الأميركية أو من الشركة المطورة للنموذج حول استخدام "Claude" في أي عملية عسكرية أو أمنية مباشرة، ما يجعل هذه المعلومات ضمن نطاق التكهنات أو المزاعم غير المؤكدة.
ويُعرف نموذج "Claude" بكونه أحد أنظمة الذكاء الاصطناعي المتقدمة في معالجة اللغة وتحليل البيانات، حيث يُستخدم بشكل أساسي في مجالات مثل خدمة العملاء، تحليل النصوص، ودعم اتخاذ القرار.
وتفرض الشركات المطورة، ومنها Anthropic، قيوداً صارمة على استخدام نماذجها في التطبيقات العسكرية أو التي قد تُسبب ضرراً، في إطار سياسات السلامة والالتزام الأخلاقي.
وتعكس هذه المزاعم القلق المتزايد عالمياً بشأن إمكانية استخدام الذكاء الاصطناعي في النزاعات أو العمليات الأمنية، رغم أن الاستخدامات الفعلية لا تزال محكومة بضوابط تقنية وقانونية.
هل استعان الجيش الأميركي بـ"Claude" لاعتقال Nicolás Maduro؟ ماذا نعرف عن النموذج؟
تداولت تقارير ومزاعم حول استخدام نموذج الذكاء الاصطناعي "Claude" من Anthropic في عمليات أمنية حساسة، ما أثار جدلاً واسعاً حول دور الذكاء الاصطناعي في المجال العسكري.