وكالات - مصدر الإخبارية
تواصل شركة التكنولوجيا الأمريكية بالانتير توسيع نطاق حضورها داخل قطاع الصناعات الدفاعية، في ظل تصاعد الجدل حول استخدام تقنياتها المعتمدة على الذكاء الاصطناعي في العمليات العسكرية، خاصة تلك المرتبطة بإسرائيل في غزة ولبنان وإيران.
وتعد “بالانتير” شركة متخصصة في تحليل البيانات وتطوير أنظمة الذكاء الاصطناعي، تأسست عام 2003، وتعمل بشكل وثيق مع الحكومات ووكالات الاستخبارات والمؤسسات العسكرية والشركات الكبرى، حيث تقدم حلولًا متقدمة لمعالجة البيانات وتحديد الأنماط ودعم اتخاذ القرار.
وبحسب تقارير إعلامية وتقييمات حقوقية، فقد استُخدمت تقنيات الشركة في دعم عمليات عسكرية يُعتقد أنها شملت تحديد أهداف وتحليل بيانات خلال الحرب الإسرائيلية على قطاع غزة، إضافة إلى عمليات مرتبطة بلبنان وإيران، وهي اتهامات لم تُثبت بشكل مستقل، بينما ترفض الشركة هذه المزاعم وتؤكد أن تعاونها مع إسرائيل يأتي ضمن شراكات مع حلفاء الولايات المتحدة.
وفي يناير/كانون الثاني 2024، أعلنت الشركة توسيع تعاونها مع إسرائيل عبر تقديم دعم تقني يعتمد على الذكاء الاصطناعي للجيش الإسرائيلي، يركز على تحليل البيانات وتحديد الأهداف في سياق العمليات العسكرية، دون الكشف عن تفاصيل إضافية.
وتعزز “بالانتير” موقعها في قطاع الدفاع عبر دمج تقنيات الذكاء الاصطناعي مع أنظمة استخباراتية وعسكرية متقدمة، مستفيدة من عقود واسعة مع وزارة الدفاع الأمريكية، بما في ذلك شراكتها في برنامج “مافن” الذي يعتمد على الذكاء الاصطناعي في تحليل الصور وتحديد الأهداف، إضافة إلى مشاريع أخرى مثل “تايتان” و“آرمي فانتدج” لتسريع اتخاذ القرار العسكري.
وفي عام 2025، وقّعت الشركة اتفاقًا بقيمة 10 مليارات دولار مع الجيش الأمريكي، ما يعكس توسع دورها في البنية التكنولوجية الدفاعية للولايات المتحدة.
كما تشير تقارير إلى أن الشركة توفر منصات متقدمة مثل “غوثام” و“فاوندري” و“سكاي كيت”، والتي تتيح دمج كميات ضخمة من البيانات وتحليلها وربطها بالعمليات الميدانية، بما يسهم في دعم القرارات العسكرية والاستخباراتية.
وتشير مصادر إعلامية وكتب بحثية إلى أن تقنيات الشركة استُخدمت كذلك في سياقات عسكرية مرتبطة بلبنان وإيران، بما في ذلك عمليات استهداف وعمليات استخباراتية، وهي معلومات لا تؤكدها جهات رسمية بشكل مستقل.
في المقابل، تؤكد الشركة أن أنظمتها تُستخدم ضمن أطر قانونية وبالتنسيق مع حكومات حليفة، وتنفي أن تكون مسؤولة عن أي استخدام مباشر لها في استهداف المدنيين أو انتهاك القانون الدولي.
من جانب آخر، ترى خبيرة حوكمة الذكاء الاصطناعي في معهد ستوكهولم الدولي لأبحاث السلام، لورا برون، أن دمج الذكاء الاصطناعي في العمليات العسكرية غيّر طبيعة الحروب بشكل جذري، خصوصًا من حيث السرعة واتساع نطاق اتخاذ القرار.
وتحذر الخبيرة من أن استخدام هذه التقنيات في المراقبة وتحليل البيانات يثير مخاطر كبيرة تتعلق بحقوق الإنسان والخصوصية، مشيرة إلى أن الحدود بين الاستخدامات المدنية والعسكرية أصبحت أكثر ضبابية مع تطور هذه الأنظمة.
كما تؤكد أن الدول تبقى مسؤولة قانونيًا عن نتائج استخدام الذكاء الاصطناعي في النزاعات المسلحة، حتى في حال الاعتماد على أنظمة مؤتمتة، بينما لا تزال مسألة تحديد المسؤولية الدقيقة في حال وقوع أخطاء ميدانية معقدة وصعبة التحديد.