استخدمت مؤسسات بحثية صينية كبرى، نموذج “لاما” المتاح للجمهور من شركة ميتا لتطوير أداة ذكاء اصطناعي للتطبيقات العسكرية المحتملة.
وفي ورقة بحثية نشرت في يونيو واستعرضتها رويترز، شرح ستة باحثين صينيين من ثلاث مؤسسات، بما في ذلك مؤسستان تابعتان للهيئة البحثية الرائدة في جيش التحرير الشعبي الصيني، وهي أكاديمية العلوم العسكرية، كيف استخدموا نسخة مبكرة من برنامج ميتا لاما كقاعدة لما يسمى “تشات بيت”.
تشات بيت
استخدم الباحثون نموذج لغة Llama 2 13B (LLM) السابق الذي طورته Meta (META.O)، من خلال دمج معاييرهم الخاصة لبناء أداة الذكاء الاصطناعي الموجهة للجيش لجمع ومعالجة المعلومات الاستخباراتية، وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات الاستراتيجية.
وذكرت الدراسة، أن برنامج ChatBIT تم ضبطه و”تحسينه لأداء مهام الحوار والإجابة على الأسئلة في المجال العسكري”.
وتبين أنه يتفوق على بعض نماذج الذكاء الاصطناعي الأخرى التي كانت قادرة بنسبة 90% تقريبًا على برنامج ChatGPT-4 القوي من OpenAI.
ولم يوضح الباحثون كيفية تعريفهم للأداء أو تحديد ما إذا كان نموذج الذكاء الاصطناعي قد تم وضعه في الخدمة.
وقال ساني تشيونج، الزميل المشارك في مؤسسة جيمستاون المتخصص في التكنولوجيات الناشئة والمزدوجة الاستخدام في الصين: “هذه هي المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون بشكل منهجي ويحاولون الاستفادة من قوة برامج الماجستير في القانون مفتوحة المصدر، وخاصة تلك التي تنتجها شركة ميتا، لأغراض عسكرية”.
نماذج الذكاء الاصطناعي
تبنت شركة ميتا الإصدار المفتوح للعديد من نماذج الذكاء الاصطناعي الخاصة بها، بما في ذلك لاما. وتفرض قيودًا على استخدامها، شرط أن تسعى الخدمات التي تضم أكثر من 700 مليون مستخدم إلى الحصول على ترخيص من الشركة.
وتحظر شروطها أيضًا استخدام النماذج في “الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس” وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأمريكية، فضلاً عن تطوير الأسلحة والمحتوى الذي يهدف إلى “التحريض على العنف والترويج له”.
ومع ذلك، بما أن نماذج ميتا عامة، فإن الشركة لديها طرق محدودة لفرض هذه الأحكام.
وردا على أسئلة رويترز، استشهدت ميتا بسياسة الاستخدام المقبولة، وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.
وقالت مولي مونتجومري، مديرة السياسات العامة في شركة ميتا، لرويترز في مقابلة هاتفية: “أي استخدام لنماذجنا من قبل جيش التحرير الشعبي غير مصرح به ويتعارض مع سياسة الاستخدام المقبولة لدينا”.
وأضاف ميتا، أن الولايات المتحدة يجب أن تتبنى الابتكار المفتوح.
وقال متحدث باسم شركة ميتا في بيان: “في المنافسة العالمية على الذكاء الاصطناعي، فإن الدور المزعوم لنسخة واحدة قديمة من نموذج مفتوح المصدر أمريكي غير ذي صلة عندما نعلم أن الصين تستثمر بالفعل أكثر من تريليون دولار لتجاوز الولايات المتحدة في مجال الذكاء الاصطناعي”.
ومن بين الباحثين الصينيين جينج قوه تونج ولي ويوي من مركز أبحاث معلومات العلوم العسكرية التابع للأكاديمية العسكرية الصينية ومعهد الابتكار الوطني لتكنولوجيا الدفاع، بالإضافة إلى باحثين من معهد بكين للتكنولوجيا وجامعة مينزو.
“في المستقبل، ومن خلال التطوير التكنولوجي، لن يتم تطبيق ChatBIT على تحليل المعلومات الاستخباراتية فحسب، بل سيتم أيضًا استكشاف التخطيط الاستراتيجي، والتدريب على المحاكاة، واتخاذ القرارات القيادية”، كما جاء في الورقة.
وزارة الدفاع الصينية
ولم ترد وزارة الدفاع الصينية على طلب التعليق، ولم ترد أيضا أي من المؤسسات أو الباحثين.
ولم تتمكن رويترز من تأكيد قدرات ChatBIT وقوته الحاسوبية، على الرغم من أن الباحثين لاحظوا أن نموذجه لم يتضمن سوى 100 ألف سجل حوار عسكري، وهو عدد صغير نسبيًا مقارنة ببرامج LLM الأخرى.
وقالت جويل بينو، نائبة رئيس أبحاث الذكاء الاصطناعي في ميتا وأستاذة علوم الكمبيوتر في جامعة ماكجيل في كندا: “إنها قطرة في المحيط مقارنة بمعظم هذه النماذج (التي) تم تدريبها باستخدام تريليونات الرموز، لذا.. هذا يجعلني أتساءل حقًا عما يحققونه بالفعل هنا من حيث القدرات المختلفة”.
وتأتي هذه الأبحاث وسط نقاش حاد في دوائر الأمن القومي والتكنولوجيا في الولايات المتحدة حول ما إذا كان ينبغي لشركات مثل ميتا أن تجعل نماذجها متاحة للجمهور.
تطورات الذكاء الاصطناعي
في أكتوبر 2023، وقع الرئيس الأمريكي جو بايدن على أمر تنفيذي يسعى إلى إدارة تطورات الذكاء الاصطناعي، مشيرًا إلى أنه على الرغم من أنه قد تكون هناك فوائد كبيرة للابتكار، إلا أن هناك أيضًا “مخاطر أمنية كبيرة، مثل إزالة الضمانات داخل النموذج”.
وقالت واشنطن هذا الأسبوع، إنها تعمل على وضع اللمسات الأخيرة على القواعد الرامية إلى الحد من الاستثمار الأمريكي في الذكاء الاصطناعي وغيره من قطاعات التكنولوجيا في الصين والتي قد تهدد الأمن القومي.