كيف أربكت التكنولوجيا إدراكنا؟

منذ 2024-05-24

ينبغي على المجتمع تعزيز الوعي والتثقيف حول خطورة هذه التقنيات، وضرورة التأكد من صحة المعلومات قبل الحكم على الأشخاص أو المواقف، من خلال أي محتوى منشور على الإنترنت.

بات من غير المستغرب في هذا العصر إمكانُ أن يرى أحدنا صورته بعينيه، أو يسمع صوته بأذنيه، ثم يقف حائرًا بعض الوقت مشدوهًا يفكر: أهذا الذي أراه هو أنا؟! أهذا الذي أسمعه هو صوتي؟! ثم تبرق عيناه ليصرخ بصوتٍ عالٍ: "ليس هذا أنا، ولم أقُل ذلك"، في إشارة صريحة إلى اضطراب الإدراك، بسبب تعرُّضه لموجة عارمة من الإرباك.

 

ينبغي أن يعلَمَ كلُّ مستخدمٍ لشبكة الإنترنت لديه صوت وصورة محفوظان على الشبكة، أنه معرَّض للاختراق التوليدي من كل الأنواع، وأن مادته الخاصة به (صوته وصورته) تُعَدُّ صيدًا سهلًا وثمينًا، تتصيده هجمات الهندسة الاجتماعية بتقنياتها وحِيَلِها، لتتلاعب بها تقنيات التزييف العميق، منتجة محتوى غير مطابق لِما في الواقع، لكنه قابل للتصديق بقوة، فمن السذاجة الغريبة أن يرى أولئك أنفسهم بمأمنٍ تامٍّ عن إمكان التلاعب بصوتهم، أو بصورتهم، أو بهما سويًّا.

 

تُعَدُّ تقنيات التزييف العميق من أخطر التقنيات التي ظهرت، خاصة مع تطور التقنيات التوليدية والتعلُّم الآلي، فيمكن إنشاء مقاطع فيديو أو صور، يبدو فيها شخص ما يقول أو يفعل شيئًا لم يفعله في الواقع مطلقًا؛ ومن أنواع هذا التزييف:


التلاعب بالصوت :(Voice Manipulation)

يشمل تعديل أو تغيير الصوت الأصلي لشخص ما ليبدو وكأنه يقول أشياء لم يقُلْها في الحقيقة، ويمكن استخدام التلاعب بالصوت في إنشاء مكالمات هاتفية مزيفة، أو إنتاج تسجيلات صوتية مضللة.

 

التلاعب بالصورة :(Image Manipulation)

يتضمن تحريف الصور لتُظهر أشخاصًا، أو أحداثًا، أو مواقفَ لم تحدث بالفعل، أو تزوير صور لشخصيات عامة بهدف نشر معلومات كاذبة، أو لمجرد إثارة الجدل، أو حتى إلصاق تُهَمٍ بأشخاص هم بريئون منها في الواقع.


توليد الفيديوهات المزورة :(Deepfake Videos)

ويَسْتَخْدم هذا النوعُ تقنياتِ الذكاء الاصطناعي لاختلاق مقاطع فيديو تبدو وكأنها حقيقية، ولكن في الواقع هي مزيفة، ويمكن استخدام هذه الفيديوهات لنشر أخبار ملفَّقة، أو إنشاء مقاطع فيديو إباحية مُزيَّفة تضر بسمعة الأشخاص.

 

التلاعب بالمقاطع السمع بصرية :(Audio-Visual Clips Manipulation)

يشمل هذا النوع من التزييف التلاعبَ بالمقاطع الجاهزة؛ أي المنشورة كما هي، سواء السمعية، أو البصرية، أو السمع بصرية، وذلك من خلال التعديل عليها لتُبدي خلاف ما كانت عليه وقت نشرها في المرة الأولى؛ وذلك لنشر معلومات غير صحيحة، أو لتشويه الحقائق.

 

وبناءً على ذلك؛ ينبغي إدراك آثار هذه التقنيات الضارة على الأفراد والمجتمعات، ومن آثارها:

تضليل الرأي العام:

إذ يمكن استخدام محتوى الصوت والصورة المزيَّف لنشر معلومات مُضلِّلة، مما قد يؤدي إلى اتخاذ الناس لقرارات خاطئة بناءً على معلومات غير صحيحة.

 

تشويه سمعة الأشخاص:

فيمكن استخدام هذا المحتوى المزيف لتشويه سمعة الأشخاص، وتدمير حياتهم المهنية والشخصية.

 

الابتزاز:

حيث يمكن استخدام هذا المحتوى المزيف لابتزاز الأشخاص، وإجبارهم على دفع المال، أو فعل أشياء هم لا يرغبون في فعلها.

 

فقدان الثقة:

يمكن أن يؤدي انتشار هذا المحتوى المزيف والاعتياد عليه إلى فقدان الثقة في وسائل الإعلام والمؤسسات، بل والأفراد الموثوقين كذلك.

 

كيف أحمي نفسي من تقنيات التزييف العميق:

التحقق من صحة المعلومات: قبل مشاركة أي محتوى صوتي أو مرئي.

 

توخِّي الحذر من المحتوى المشبوه: فإذا كان المحتوى يبدو جيدًا ولافتًا لدرجة لا تصدق، فمن المحتمل أنه مزيف، كن حذرًا من المحتوى الذي يبدو غير طبيعي أو مبالغًا فيه.

 

استخدام برامج الأمان: إذ يمكن أن تساعد برامج مكافحة الفيروسات والملفات الضارة في حماية جهازك من الخوارزميات، التي يمكن استخدامها في استقطاب موادك الخاصة لتوليد محتوى صوتي ومرئي مزيف.


رفع مستوى الوعي: من المهم نشر الوعي حول مخاطر اختراق الصوت والصورة، وتوخي الحيطة والحذر من ذلك.


التريُّث قبل الحكم: وهذه نقطة محورية ذات أهمية قصوى، تتطلب اهتمامًا بالغًا من قِبَلِ المجتمع؛ ففي عالم مليء بتقنيات التلاعب الرقمي، وآثارها الممثَّلة في فقدان الثقة، والتشكيك المستمر، حتى في الأمور البسيطة - ينبغي على المجتمع تعزيز الوعي والتثقيف حول خطورة هذه التقنيات، وضرورة التأكد من صحة المعلومات قبل الحكم على الأشخاص أو المواقف، من خلال أي محتوى منشور على الإنترنت.

______________________________________________________
الكاتب: محمد فرح متولي

  • 12
  • 0
  • 312

هل تود تلقي التنبيهات من موقع طريق الاسلام؟

نعم أقرر لاحقاً