الذكاء الاصطناعي يتلاعب بسباق الرئاسة الأميركية.. صوت مزيف لبايدن يثير بلبلة!

#سواليف

انتشرت على منصات التواصل الاجتماعي مكالمة صوتية للرئيس الأميركي جو #بايدن يطلب من سكان ولاية #نيو_هامبشاير عدم التصويت لبايدن في الانتخابات التمهيدية الرئاسية الديمقراطية، حيث تبين لاحقا أن المكالمة مزيفة وتم إنشاؤها باستخدام #الذكاء_الاصطناعي، وفقًا لخبراء المعلومات المضللة والأشخاص الذين يدرسون التكنولوجيا.

وتثير المكالمة المخاوف بشأن ما قد تقوم به تقنيات الذكاء الاصطناعي في تغيير مسار #الانتخابات الرئاسية المرتقبة في نوفمبر خاصة مع تقارب الأرقام حتى اللحظة بين المرشحين جو بايدن ودونالد ترامب. كما تناولت العديد من الصحف ووكالات الأنباء الموضوع بتعمق.

المكالمة تعتبر مجهولة المصدر حيث وصفها مكتب المدعي العام في نيو هامبشاير بأنها “محاولة غير قانونية” لمنع الناخبين من التصويت لبايدن في الانتخابات التمهيدية الرئاسية الديمقراطية في الولاية اليوم الثلاثاء.

وقال بن كولمان، الرئيس التنفيذي لشركة Reality Defender، وهي شركة تصنع برامج لاختبار ملفات الوسائط لمعرفة ما إذا كانت تبدو مزيفة: “تشير كل الدلائل إلى أنها مزيفة”.

وأضاف كولمان: “نحن لا نقول أبدًا أن أي شيء مؤكد بنسبة 100%، لأننا لا نملك الحقيقة على الأرض، ولكن من المحتمل جدًا أنه تم التلاعب بها”.

يبدو الصوت في المكالمة الآلية، التي اطلعت عليها “العربية Business”، صوت يشبه الرئيس الأميركي الحالي جو بايدن، على الرغم من أن الإيقاع مقطوع.

وبحسب الإعلام الأميركي، يكاد يكون من المستحيل تحديد برنامج الذكاء الاصطناعي الذي تم استخدامه حيث أن مثل تلك البرامج التي يمكنها إنشاء نسخة “مقنعة” إلى حد ما لصوت شخص ما تعتبر متاحة على نطاق واسع مثل تطبيقات الهاتف والخدمات عبر الإنترنت، وعادة ما تكون مجانية أو مقابل رسوم بسيطة.

غالبًا ما تحتاج مثل هذه البرامج إلى كمية صغيرة فقط من العينات الصوتية لتقليد أصوات الأشخاص، مما يجعل من السهل عليهم تقليد رجل سياسي مثل جو بايدن.

وبحسب تقرير لـ”NBC Universal”، اطلعت عليه “العربية Business”، قالت ليندساي غورمان، التي تدرس التقنيات الناشئة والمعلومات المضللة في تحالف تأمين الديمقراطية التابع لصندوق “مارشال” الألماني، إنه غالبًا ما تكون هناك أخبار عن التزييف العميق، على الرغم من أن التكنولوجيا تتحسن باستمرار.

“بدا الإيقاع، خاصة في النهاية، غير طبيعي وآلي. وقالت: “هذه إحدى الإشارات التي قد تشير إلى أن المحتوى الصوتي المحتمل قد يكون مزيفًا”.

وقالت غورمان إن التحديد الواضح لما هو مزيف أو غير مزيف أصبح لعبة “القط والفأر” حيث يقوم المطورون بتحسين التكنولوجيا.

وأضافت: “في حالة التزييف البصري العميق، أحد الإشارات هي القدرة على اكتشاف حركة عيون الناس”. “هذه معلومات جيدة عمومًا، مفادها أنه إذا كانت حركات أعينهم غير طبيعية، فقد يكون ذلك “تزييفًا عميقًا” (deepfakes). لكن الآن أصبحت برامج التزييف العميقة أفضل وتتعامل مع بعض حركات العين الغريبة وغير المنتظمة: التحديق، والرمش الزائد.

وقال السيناتور ريتشارد بلومنثال، ديمقراطي من ولاية كونيتيكت، الذي قدم إطارًا تشريعيًا للذكاء الاصطناعي في مجلس الشيوخ، إنه يأمل أن ينبه هذا الحادث الأميركيين إلى مخاطر التضليل التي يمكن أن يشكلها الذكاء الاصطناعي.

في حين أن القانون الفيدرالي يجرم معرفة محاولات منع الناس من التصويت أو التسجيل للتصويت، إلا أن هناك القليل من التنظيم حول استخدام الذكاء الاصطناعي بشكل خادع. وقال متحدث باسم اللجنة إنه بينما ضغط بعض النشطاء على لجنة الانتخابات الفيدرالية لتنظيم الإعلانات المزيفة، إلا أنها لم تحدد بعد ما إذا كانت ستبدأ أي عملية وضع قواعد حول هذه التكنولوجيا.

قالت ميكيلا بانديثاراتني، كبيرة المستشارين في برنامج الديمقراطية في مركز برينان للعدالة في كلية الحقوق بجامعة نيويورك، إنه في حين أن الاستخدام الواضح لتكنولوجيا التزييف العميق لمنع الناس من التصويت في الانتخابات التمهيدية الرئاسية الأمريكية قد يكون جديدًا، إلا أن استخدام المكالمات الآلية لقمع الأصوات ليست كذلك.

قال بانديثاراتني: “لقد تم نشر المكالمات الآلية تاريخياً من قبل جهات خادعة لنشر معلومات كاذبة حول كيفية وزمان ومكان التصويت في محاولة لخداع الناس من التصويت”. “من المحتمل أن يجعل الذكاء الاصطناعي لتوليد الصوت طريقة محاولة قمع التصويت أكثر جاذبية للمحتالين.”

اظهر المزيد

مقالات ذات صلة

اترك رداً

زر الذهاب إلى الأعلى