أحدث تقنيات الذكاء الاصطناعي.. حتى صوتك لم يعد ملكك

مدار الساعة ـ نشر في 2024/03/30 الساعة 22:11
مدار الساعة - عرضت شركة "أوبن ايه آي"، مبتكرة برنامج المحادثة الشهير "تشات جي بي تي" القائم على الذكاء الاصطناعي التوليدي، أداة لاستنساخ الصوت سيكون استخدامها محدوداً لتفادي تسجيل حوادث احتيال أو جرائم.والأداة التي سُمّيت بـ" فويس انجين" قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، على ما ذكر بيان لـ"اوبن ايه آي" تطرّق إلى نتائج اختبار أجري على نطاق صغير.وأضاف البيان "ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصاً في عام الانتخابات هذا".وتابع "نعمل مع شركاء أميركيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار خلال عملية ابتكار الأداة".وفي هذا العام الذي يُرتقب أن يشهد انتخابات في دول كثيرة، يخشى الباحثون في مجال التضليل الإعلامي من إساءة استخدام تطبيقات الذكاء الاصطناعي التوليدية، وخصوصا أدوات استنساخ الصوت التي تُعدّ رخيصة وسهلة الاستخدام ويصعب تتبعها.وأكدت "أوبن ايه آي" أنها اعتمدت "نهجا حذرا" قبل نشر الأداة الجديدة على نطاق أوسع "بسبب احتمال إساءة استخدام الأصوات الاصطناعية".ويأتي عرض الأداة بعدما قام مستشار يعمل في الحملة الرئاسية لمنافس ديمقراطي لجو بايدن، بابتكار برنامج آلي انتحل شخصية الرئيس الأميركي المرشح لولاية جديدة.ودعا الصوت المشابه لصوت جو بايدن الناخبين إلى الامتناع عن التصويت في الانتخابات التمهيدية في نيو هامبشر.وحظرت الولايات المتحدة مذّاك الدعوات التي تستخدم فيها الأصوات المستنسخة المولّدة بواسطة الذكاء الاصطناعي، من أجل مكافحة عمليات الاحتيال السياسية أو التجارية.وأوضحت "أوبن ايه آي" أنّ الشركاء الذين يختبرون "فويس انجين" وافقوا على قواعد تفرض مثلاً موافقة صريحة من أي شخص قبل استخدام صوته، وضرورة الإشارة بوضوح إلى المستمعين أن الأصوات ابتُكرت بواسطة الذكاء الاصطناعي.وتابعت الشركة "اعتمدنا مجموعة من الإجراءات الأمنية، بينها العلامة المائية حتى نتمكن من تتبع أصل كل صوت تبتكره الأداة الجديدة، بالإضافة إلى مراقبة استباقية لاستخدامها".
مدار الساعة ـ نشر في 2024/03/30 الساعة 22:11