مقطع فيديو مزيف لخطاب أوباما.. ماذا فعلت “مايكروسوفت” و”فيسبوك” ل

مقطع فيديو مزيف لخطاب أوباما.. ماذا فعلت “مايكروسوفت” و”فيسبوك” ل

[ad_1]

كشفت تقارير صحفية عن مواجهة علماء من شركتي “مايكروسوفت” و”فيسبوك” الأمريكيتين لظاهرة خطيرة، ألا وهي “التزييف العميق” لمقاطع الفيديو.

وأوضح التقرير المنشور عبر موقع “إنغادجيت” التقني المتخصص أن شركتي مايكروسوفت وفيسبوك جمعتا علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من ابتكار تقنية في اكتشاف “التزييف العميق”، في محاولة لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة.

وحذر مجموعة من علماء الكمبيوتر من جامعة كاليفورنيا الأمريكية، من أن أجهزة الكشف عن “التزييف العميق”، لا يزال من الممكن خداعها، ولعل أبرز مثال تزييف خطاب للرئيس الأمريكي الأسبق باراك أوباما، يعتذر فيه عن أخطائه السابقة.

وأظهر الفريق كيف يمكن خداع أدوات الكشف عن طريق إدخال مدخلات ما يطلق عليها “الأمثلة المتناقضة” في كل إطار فيديو.

وأوضح العلماء في إعلانهم أن الأمثلة العدائية هي صور تم التلاعب بها، يمكن أن تجعل أنظمة الذكاء الاصطناعي ترتكب خطأ، كما تعمل معظم أجهزة الكشف عن طريق تتبع الوجوه في مقاطع الفيديو وإرسال بيانات الوجه التي تم اقتصاصها إلى شبكة عصبية، تجعل مقاطع الفيديو المزيفة العميقة مقنعة؛ لأنه تم تعديلها لنسخ وجه شخص حقيقي.

ويمكن لنظام الكاشف بعد ذلك تحديد ما إذا كان الفيديو أصليًّا من خلال النظر إلى العناصر التي لم تتم إعادة إنتاجها جيدًا في التزييف العميق، مثل الوميض.

واكتشف علماء جامعة كاليفورنيا في سان دييغو أنه من خلال إنشاء أمثلة معادية للوجه وإدخالها في كل إطار فيديو، أنه يمكنها التهرب حتى من أفضل أدوات الكشف.

مقطع فيديو مزيف لخطاب أوباما.. ماذا فعلت “مايكروسوفت” و”فيسبوك” لمواجهة ظاهرة خطيرة


سبق

كشفت تقارير صحفية عن مواجهة علماء من شركتي “مايكروسوفت” و”فيسبوك” الأمريكيتين لظاهرة خطيرة، ألا وهي “التزييف العميق” لمقاطع الفيديو.

وأوضح التقرير المنشور عبر موقع “إنغادجيت” التقني المتخصص أن شركتي مايكروسوفت وفيسبوك جمعتا علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من ابتكار تقنية في اكتشاف “التزييف العميق”، في محاولة لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة.

وحذر مجموعة من علماء الكمبيوتر من جامعة كاليفورنيا الأمريكية، من أن أجهزة الكشف عن “التزييف العميق”، لا يزال من الممكن خداعها، ولعل أبرز مثال تزييف خطاب للرئيس الأمريكي الأسبق باراك أوباما، يعتذر فيه عن أخطائه السابقة.

وأظهر الفريق كيف يمكن خداع أدوات الكشف عن طريق إدخال مدخلات ما يطلق عليها “الأمثلة المتناقضة” في كل إطار فيديو.

وأوضح العلماء في إعلانهم أن الأمثلة العدائية هي صور تم التلاعب بها، يمكن أن تجعل أنظمة الذكاء الاصطناعي ترتكب خطأ، كما تعمل معظم أجهزة الكشف عن طريق تتبع الوجوه في مقاطع الفيديو وإرسال بيانات الوجه التي تم اقتصاصها إلى شبكة عصبية، تجعل مقاطع الفيديو المزيفة العميقة مقنعة؛ لأنه تم تعديلها لنسخ وجه شخص حقيقي.

ويمكن لنظام الكاشف بعد ذلك تحديد ما إذا كان الفيديو أصليًّا من خلال النظر إلى العناصر التي لم تتم إعادة إنتاجها جيدًا في التزييف العميق، مثل الوميض.

واكتشف علماء جامعة كاليفورنيا في سان دييغو أنه من خلال إنشاء أمثلة معادية للوجه وإدخالها في كل إطار فيديو، أنه يمكنها التهرب حتى من أفضل أدوات الكشف.

10 فبراير 2021 – 28 جمادى الآخر 1442

06:07 PM


كشفت تقارير صحفية عن مواجهة علماء من شركتي “مايكروسوفت” و”فيسبوك” الأمريكيتين لظاهرة خطيرة، ألا وهي “التزييف العميق” لمقاطع الفيديو.

وأوضح التقرير المنشور عبر موقع “إنغادجيت” التقني المتخصص أن شركتي مايكروسوفت وفيسبوك جمعتا علماء من الجامعات والمنظمات وعمالقة التكنولوجيا، من ابتكار تقنية في اكتشاف “التزييف العميق”، في محاولة لمنع استخدامها لنشر الوسائط الخبيثة والمعلومات المضللة.

وحذر مجموعة من علماء الكمبيوتر من جامعة كاليفورنيا الأمريكية، من أن أجهزة الكشف عن “التزييف العميق”، لا يزال من الممكن خداعها، ولعل أبرز مثال تزييف خطاب للرئيس الأمريكي الأسبق باراك أوباما، يعتذر فيه عن أخطائه السابقة.

وأظهر الفريق كيف يمكن خداع أدوات الكشف عن طريق إدخال مدخلات ما يطلق عليها “الأمثلة المتناقضة” في كل إطار فيديو.

وأوضح العلماء في إعلانهم أن الأمثلة العدائية هي صور تم التلاعب بها، يمكن أن تجعل أنظمة الذكاء الاصطناعي ترتكب خطأ، كما تعمل معظم أجهزة الكشف عن طريق تتبع الوجوه في مقاطع الفيديو وإرسال بيانات الوجه التي تم اقتصاصها إلى شبكة عصبية، تجعل مقاطع الفيديو المزيفة العميقة مقنعة؛ لأنه تم تعديلها لنسخ وجه شخص حقيقي.

ويمكن لنظام الكاشف بعد ذلك تحديد ما إذا كان الفيديو أصليًّا من خلال النظر إلى العناصر التي لم تتم إعادة إنتاجها جيدًا في التزييف العميق، مثل الوميض.

واكتشف علماء جامعة كاليفورنيا في سان دييغو أنه من خلال إنشاء أمثلة معادية للوجه وإدخالها في كل إطار فيديو، أنه يمكنها التهرب حتى من أفضل أدوات الكشف.



[ad_2]

Source link

Leave a Reply