Deep Fake Ka Ghalat Istemal
ڈیپ فیک کا غلط استعمال
اکیسوی صدی فوٹو شاپ کے عروج کا دور ہے یہاں تصاویر اور ویڈیوز کی اصلی حالت کو چند منٹوں میں تبدیل کیا جاسکتا ہے۔ ڈیپ فیک artificial intelligence کی ایک شکل ہے جیسے ڈیپ لرننگ (deep learning) کہتے ہیں جس میں اکثر جعلی تصاویر و ویڈیوز بنائے جاتے ہیں اس ٹیکنالوجی کو عرف عام میں "ڈیپ فیک" کہا جاتا ہے۔ یہ سیاسی، سماجی اور فلمی اداکاروں کو بلیک میل کرنے کا سنگین طریقہ کار ہے۔
ڈیپ فیک ویڈیوز اور تصاویر کے زریعہ دنیا بھر میں سیاستدان کی عزت مجروع کی جاتی ہے۔ اس کے علاوہ خواتین کو ہراساں کرنے کے لیے بھی یہ ٹیکنالوجی استعمال کی ہوتی ہے۔
یونیورسٹی آف بوسٹن کے قانوں کے پروفسیر ڈینیٹل سیٹرون کہتے ہیں۔ "ڈیپ فیک ٹیکنالوجی خواتین کے خلاف ہتھیار کے طور پر استعمال کی جاتی ہے اس کے علاوہ ڈیپ فیک طنز، دھوکہ دہی، شرارت اور فحاشی پھلانے کے لیے بھی استعمال ہوتا ہے"۔
تصاویر، ویڈیوز، کے ساتھ "وائس کلون" کے زریعہ آڈیوز کی بھی ڈیپ فیکنگ کی جاتی ہے اس کے لیے کثرت سے وٹس ایپ وائس کا سہارا لیا جاتا ہے۔ ڈیپ فیک ویڈیوز 2017 سے بنے شروع ہوئیں ہیں اس سے پہلے فیک تصاویر استعمال ہوتے تھے۔ جیسا ماضی قریب میں بینظر بھٹو اور نصرت بھٹو کو سیاسی انتقام کا نشانہ بنانے کے لیے ڈیپ فیک امیجز بنائے گئے تھے۔ خیر!
ڈیپ فیک بنانے کے لیے کافی محنت لگتی ہے تصویر میں تبدیلیاں لانی پڑھتی ہے۔ سب سے پہلے انکوڈر نامی اے آئی الگورتھم کے زریعہ دو الگ الگ چہروں کے ہزاروں شوٹس لیے جاتے ہیں۔ پھر انکوڈر دونوں چہروں میں موجود ایک جیسی چیزوں کو ڈھونڈتا ہے پھر یہ انکوڈر دونوں کے مشترکہ خصوصیات کو کمپریس کرتے ہوئے ایک جیسی خصوصیات کو الگ کرتا ہے۔ پھر ایک اور اے آئی الگورتھم جیسے ڈیکوڈر کہا جاتا ہے دونوں کمپریسڈ تصاویر سے چہروں کو دریافت کرتا ہے۔
دونوں کی شناخت کے لیے الگ الگ ڈیکوڈر استعمال ہوتے ہیں۔ چہرے کو تبدیل کرنے کے لیے صرف انکوڈ شدہ تصاویر کو غلط ڈیکوڈر میں فیڈ کیا جاتا ہے۔ مثال کے طور پر فرسٹ پرسن کے چہرے کی کمپریسڈ تصویر سیکنڈ پرسن کے کمپریسڈ شدہ ڈیکوڈر میں پر کیا جاتا ہے۔ پھر ڈیکوڈر میں سیکنڈ پرسن کے چہرے کو فرسٹ پرسن کے چہرے کی تاثرات کے ساتھ دو بار تشکیل دیا جاتا ہے۔ اس میں لوگوں کو قائل کرنے کے لیے باریک بینی سے ہر ایک حرکات پہ خاص توجہ دی جاتی ہے۔
دوسرا طریقہ جنریٹو ایڈورسیل نیٹ ورک (GAN) ہے جس میں generator اور discriminator نامی دو الگورتھم استعمال ہوتے ہیں پر یہ غیر معروف ہیں۔ یاد رہیں یہ کوئی مخلص ارادہ نہیں بناتا بلکہ یہ کوئی بھی artificial intelligence پہ عبور رکھنے والا بنا سکتا ہے۔
کیا یہ ایک معیاری کمپیوٹر کے زریعہ بنانا ممکن ہے تو بالکل بھی نہیں زیادہ تر graphics cards کے زریعہ ڈیسک ٹوپس پر بنائے جاتے ہیں۔ اس کام کے لیے ہفتے سے مہنے بھی لگ سکتے ہیں اب تو ڈیپ فیک کے بصری نقائص کو دور کرنے کے لیے مختلف ٹولز دستیاب ہے یہاں تک موبائل فون موجود ZAO نامی ایپ کے زریعہ بھی بنا سکتے مگر اس میں بصری نقائص نمایاں ہوجاتے ہیں۔
2018 میں ایک امریکی محقیق نے جب یہ دریافت کیا کہ ڈیپ فیک سے بال، آنکھوں کی پلکیں اور رنگ وغیرہ پر قابو کرنا ممکن نہیں۔ اس تحقیق کے شائع ہونے کے چند مہنے بعد ایک نیا گرافکس کارڈ ترتیب دیا گیا جو ان تمام نقائص کو دور کرتا ہے۔ ان تمام صورت حال کو دیکھتے ہوئے Amazon، Facebook اور Microsoft نے مل کر ڈیپ فیک ڈیٹیکشن چلینج شروع کیا جس میں دنیا بھر کی ریسرچ ٹیمیں شامل ہیں۔
یہ ٹیکنالوجی، جانوروں کے تحفظ اور سوچ اور تصویر کی شکل میں اجاگر کرنے کے لیے متعارف کی گئی مگر اب یہ جنسی ہراسگی، نیچا دیکھانے، کمزور کرنے اور عدم استحکام کے لیے استعمال ہورہی ہیں۔ دیگر منصوعی ذرائع ابلاغ اور جعلی خبروں کے ساتھ ڈیپ فیک کا زیادہ گھناونا اثر زیرو ٹرسٹ معاشرے بنانے میں مدد فراہم کرنا ہے۔ اس کے زریعہ سچائی اور جھوٹ میں تمیز نہ ہو، اور اس کے زریعہ اعتماد ختم ہو۔
اس سے سماجی سیاسی اور مزہبی فائدے حاصل کیں جاتے ہیں اور شخصیت کی کردار کشی کرکے لوگوں کے درمیان انکی عزت مجروح کی جاتی ہے تاکہ عوام کا اعتماد شخصیت پہ کم ہو۔ یہ پوری دنیا میں ہوتا ہے۔ بد قسمتی سے پاکستان میں بھی یہ غلیظ کام کہیں عرصے جاری ہے۔ کیونکہ پاکستان میں اکثر لوگ پڑھے لکھے نہیں اس لیے یہ حربہ یہاں پہ کامیاب ہے اور یہ کام آئی ٹی کے ایکسپرٹ کرتے ہیں کیونکہ انہیں پتہ ہے ان ڈیپ فیکس کا فرینزٹ ٹیسٹ دنیا کے کسی کونے میں بھی ممکن نہیں۔
اسی لیے شاید کچھ دن پہلے ایک سیاسی رہنما کا بیاں آیا تھا کہ "ابھی جو ویڈیوز آنے والی ہیں ان کا آپ دنیا کے کسی بھی ادارے میں چار بار بھی فرینزک ٹیسٹ کرو وہ اصلی ہی نکلیں گی اس کا مطلب یہ ہے کہ اس پہ شد و مد سے پاکستان میں بھی کام جارہی ہے"۔
کاش اتنی محنت information technology کی کو عروج بخشنے کے لیے صرف ہوتی!