البث المباشر
سكر الدم منتصف رمضان.. الجسم يتكيف ويحول الطاقة بذكاء النظام الغذائي الغني بالدهون قد يزيد خطر أمراض الكبد الامن العام :الدفاع المدني يخمد حريقاً شب في مستودع يحتوي على أخشاب في محافظة العاصمة توقيع مذكرة تفاهم بين أبوغزاله وشركاه للاستشارات و MCC مينا الاستشارية لتعزيز استشارات الأمن الدوائي الأمن: مقتل رجل طعنا على يد زوجته في عمّان الملك لرئيس وزراء كندا: ضرورة ضبط النفس واستخدام الحوار لحل الأزمات اغتيال الشخصية.. حين يتحول "التشويه" إلى سلاح لتقويض العمل العام (وسائط متعددة) الصين تعتزم تطوير الاقتصاد الذكي وتعزيز التنمية الرقمية والذكية (وسائط متعددة) تقرير: الصين تحقق إنجازات جديدة كبيرة خلال فترة 2021-2025 الأمن يكشف تفاصيل وفاة مسنّة على يد حفيدها بقصد السرقة إغلاق جزئي وتحويلات مرورية في طبربور الجمعة بيان صادر عن النائب طلال النسور حول مشروع تعديل قانون الضمان الاجتماعي جمعية الفنادق تحتفي بأمسية لممثلي القطاع السياحي وفاة أكبر معمر في الطفيلة عن أكثر من 100 عام الاستهدافات الإيرانية لدول مجلس التعاون الخليجي والأردن تحوّل في معادلة الردع أم انزلاق نحو إعادة تشكيل الإقليم؟ الأمن العام يتعامل مع 187 بلاغاً لحادث سقوط شظايا الملك يتلقى اتصالات هاتفية لبحث تطورات الأوضاع في المنطقة الملك والرئيس السوري يبحثان هاتفيًا الأوضاع الإقليمية الخطيرة رئيس هيئة الأركان المشتركة يزور كلية الدفاع الوطني وكلية القيادة والاركان قطر تعلن اعتراض 13 صاروخاً و4 مسيّرات في عدة موجات الخميس

Deepfakes and AI: The End of 'Seeing is Believing'?

Deepfakes and AI The End of Seeing is Believing
الأنباط -

The rise of artificial intelligence has blurred the lines between reality and fabrication, challenging the age-old adage of "seeing is believing." With AI-generated faces now rivaling real ones in their realism, the implications for trust, security, and societal norms are profound.

The ability of AI to create nonexistent faces or replace one person's face with another in videos poses significant challenges. These include the erosion of legal and political evidence, as deepfakes can be used to fabricate confessions or damage reputations. The speed at which these manipulations can spread often outpaces the ability to verify their authenticity, leading to immediate social impact.

Moreover, the rise of deepfakes has enabled sophisticated social engineering and fraud schemes. Impersonating executives through fake video calls allows criminals to breach corporate security and manipulate financial transactions.

Modern deepfakes rely on Generative Adversarial Networks (GANs), pitting two algorithms against each other: one to create a human face, and the other to detect the forgery. Through millions of iterations, the generator achieves remarkable accuracy in mimicking human details, even replicating soft biometrics like blood vessel movement and light reflection in the cornea.

Studies suggest that people now find AI-generated faces more trustworthy than real ones. This is attributed to algorithms producing faces with average features, which the human brain instinctively trusts. Additionally, AI has overcome the "Uncanny Valley," making emotional responses to fake faces indistinguishable from real ones.

To combat the proliferation of deepfakes, digital forensics is emerging as a critical field. Companies like Microsoft and Adobe are developing "Digital Provenance" technologies, embedding encrypted tags in images and videos to ensure their authenticity from the point of capture.

Despite advancements in detection tools, the battle between forgers and detectors remains a continuous technological arms race. As detection methods improve, so do the algorithms that evade them.

In this era of systemic doubt, digital verification is crucial. When encountering suspicious videos, consider these guidelines:

  • Examine Biological Markers: Look for infrequent or robotic blinking patterns, as AI models struggle to replicate spontaneous eyelid movements.
  • Lip Synchronization: Observe plosive sounds like 'b' and 'm'; delays or incomplete lip closures indicate deepfakes.
  • Light Reflection: Ensure light reflection in the pupils is identical in both eyes.
  • Inspect Edges and Physics: Check for blurring or shaking where the face meets the neck or hair. Ears are difficult for algorithms to render accurately.
  • Shadow Consistency: Algorithms often fail to simulate complex shadows cast by glasses or hands near the face.

Tools like Deepware Scanner, InVID Verification Plugin, and the Content Authenticity Initiative (CAI) aid in digital forensics. These tools help in verifying video links, tracing image origins, and ensuring content authenticity through encrypted tags.

Observers suggest that the era of "seeing is believing" is over, replaced by an age of systemic doubt. Critical thinking and source verification are now more important than eyesight. Truth is no longer seen but inferred.

© جميع الحقوق محفوظة صحيفة الأنباط 2024
تصميم و تطوير