جب مصنوعی ذہانت غلط بولنے لگے۔
جب مصنوعی ذہانت غلط بولنے لگے: علم، تحقیق اور اعتماد کا نیا بحران
دنیا تیزی سے بدل رہی ہے۔ کل تک جو کچھ انسان کی سوچ، تحقیق یا تخیل کی حدوں میں تھا، آج وہ مشینوں کے الگورتھم میں قید ہے۔ مصنوعی ذہانت (AI) اب وہ اصطلاح نہیں رہی جو صرف سائنس دانوں یا انجینئروں کی زبان پر ہو . یہ ہمارے روزمرہ فیصلوں، معلومات، حتیٰ کہ ہمارے یقین تک میں داخل ہو چکی ہے۔ مگر سوال یہ ہے کہ کیا واقعی یہ نظام اتنا قابلِ اعتماد ہے جتنا ہم سمجھتے ہیں؟
علم اور ڈیٹا کا سمندر — مگر پانی کتنا صاف؟
مصنوعی ذہانت کا پورا ڈھانچہ ڈیٹا پر کھڑا ہے۔ جو کچھ انٹرنیٹ پر موجود ہے، مضامین، کتابیں، خبریں، سوشل میڈیا کے جملے، اور سب کچھ یہ نظام اسی سے سیکھتا ہے۔ لیکن مسئلہ یہ ہے کہ انٹرنیٹ پر موجود ہر چیز درست نہیں۔ جب ڈیٹا میں خامی ہو تو نتیجہ بھی خام ہوتا ہے۔
ایسے میں بعض ماہرین نے یہ خدشہ ظاہر کیا ہے کہ کئی ماڈیولز نے موجود ڈیٹا کا بیشتر حصہ استعمال کر لیا ہے۔ اب جب ان سے ایسے سوالات کیے جاتے ہیں جن کا واضح جواب ڈیٹا میں نہیں، تو یہ نظام خود سے فرضی معلومات گھڑنے لگتا ہے جیسے ہم مصنوعی سچ کہہ سکتے ہیں۔
جب یقین ٹوٹتا ہے
انسان اور مشین کا تعلق اعتماد پر قائم ہے۔ ہم مان لیتے ہیں کہ جو جواب ہمیں مل رہا ہے وہ درست ہوگا۔ لیکن اگر وہی نظام غلط معلومات دے تو یہ صرف ایک تکنیکی مسئلہ نہیں رہتا بلکہ یہ علمی اعتبار کا بحران بن جاتا ہے۔
جب کوئی طالب علم کسی مضمون کے لیے AI سے مدد لیتا ہے، یا کوئی محقق حوالہ تلاش کرتا ہے، اور اسے غلط یا گھڑی ہوئی معلومات ملتی ہیں، تو یہ غلطی صرف فرد کی نہیں، بلکہ پورے علمی عمل کی بنیاد کو ہلا دیتی ہے۔
تعلیم اور تحقیق پر اثرات
کلاس رومز میں اب طلبہ اکثر سوالات کے جواب ChatGPT جیسے ماڈلز سے لیتے ہیں۔ یہ سہولت بظاہر مددگار ہے، مگر خطرہ یہ ہے کہ اگر نظام نے مصنوعی یا فرضی حوالہ دیا تو طالب علم اس پر اعتماد کر کے اسے حقیقت سمجھ لے گا۔
اسی طرح تحقیق میں حوالہ جات کی سچائی بنیادی حیثیت رکھتی ہے۔ اگر AI غلط حوالہ پیش کرے، تو پوری تحقیق کی بنیاد مشکوک ہو جاتی ہے۔ علم کی عمارت صرف معلومات پر نہیں بلکہ درست معلومات پر کھڑی ہوتی ہے۔
فکری اثرات — جب سچ اور جھوٹ کی لکیر دھندلی ہو جائے
مصنوعی ذہانت کی سب سے بڑی خوبی یہی ہے کہ وہ انسان کی طرح بات کرتی ہے ۔ مگر یہی اس کی سب سے بڑی کمزوری بھی ہے۔ جب ایک نظام اعتماد، نرمی اور یقین کے ساتھ غلط بات کہتا ہے تو انسان کا ذہن فوراً اسے مسترد نہیں کرتا۔
یوں حقیقت اور فریب کے درمیان لکیر مٹنے لگتی ہے۔ وقت گزرنے کے ساتھ ہم ایک ایسے دور میں داخل ہو سکتے ہیں جہاں جھوٹ بھی مستند لہجے میں بولا جائے گا، اور سچائی کی پہچان مزید مشکل ہو جائے گی۔
سماجی اور اخلاقی ذمہ داری
یہ معاملہ صرف مشینوں کا نہیں بلکہ انسانوں کا بھی ہے۔ AI کو تربیت دینے والے ڈیولپرز اور تحقیقی اداروں پر یہ ذمہ داری عائد ہوتی ہے کہ وہ نظام میں غلط ڈیٹا کے امکانات کو کم سے کم کریں، اور جب کوئی غلطی سامنے آئے تو اسے تسلیم کر کے درست کریں۔
اسی طرح صارفین پر بھی لازم ہے کہ وہ ہر حاصل شدہ معلومات کو پرکھنے اور تحقیق کرنے کی عادت اپنائیں۔ اندھا اعتماد علم کا دشمن ہے۔
کیا AI خود “جھوٹ” بولتی ہے؟
یہ سوال بظاہر فلسفیانہ ہے، مگر اہم ہے۔ AI کا مقصد جھوٹ بولنا نہیں، بلکہ خلا پُر کرنا ہے۔ جب اسے کسی سوال کا درست جواب نہیں ملتا، تو وہ اپنی تربیت اور لسانی پیٹرنز کی بنیاد پر ایک تخیلاتی جواب گھڑ لیتی ہے — جو اکثر بظاہر درست لگتا ہے۔
یوں ایک "تخلیقی غلطی" جنم لیتی ہے۔ یہ غلطی نیت سے نہیں بلکہ نظام کی ساخت سے پیدا ہوتی ہے۔ مگر نتیجہ وہی ہے یعنی غلط معلومات۔
آگے کا راستہ
ہمیں اس حقیقت کو تسلیم کرنا ہوگا کہ مصنوعی ذہانت ابھی تک “حقیقت کی ضمانت” نہیں۔ یہ ایک طاقتور ذریعہ ہے مگر کامل علم نہیں۔
حل یہی ہے کہ ہم انسانی تحقیق، حوالہ، اور تنقیدی سوچ کو AI کے ساتھ جوڑ کر استعمال کریں۔ اگر انسان اپنی عقلی آنکھ بند کر دے اور سارا انحصار مشین پر کر لے تو علم کا روشن چراغ بجھنے لگتا ہے۔
امید کی کرن
مصنوعی ذہانت کی غلطیاں ہمیں مایوس نہیں کرتیں، بلکہ یاد دلاتی ہیں کہ علم کا حقیقی سرچشمہ اب بھی انسانی شعور ہے۔ مشینیں ہماری مددگار ہیں، متبادل نہیں۔
اگر ہم اس ٹیکنالوجی کو شعور، دیانت، اور تحقیق کے ساتھ جوڑ لیں، تو یہ بحران نہیں بلکہ ایک نئی بیداری کا آغاز بن سکتا ہے۔
مصنوعی ذہانت کے اس دور میں سب سے اہم سوال یہی ہے — ہم علم پر اعتماد کہاں سے حاصل کریں؟
اس کا جواب شاید اتنا مشکل نہیں ہے۔
جب انسان خود سچائی کی تلاش میں مخلص ہو، تو مشین بھی اس کی رہنمائی میں بہتر کردار ادا کر سکتی ہے۔
ندیم احمد فاروقی
تبصرے
ایک تبصرہ شائع کریں