مصنوعی ذہانت میں ہونے والی ترقی جہاں بہت سی جگہ پر ہماری مدد کر رہی ہے، وہاں پر اس سے متعلق کچھ ایسے سوال بھی اٹھتے جا رہے ہیں جن کا تعلق سوشل سائنس سے ہے۔ کچھ مثالیں
خود کار گاڑی کسی کو ٹکر مار کر جانی نقصان کر دے تو ذمہ دار کون؟
روبوٹ کو ایک شخص ایسا کام کرنے کا کہتا ہے جو غیر قانونی ہو یا جس سے کسی کو نقصان پہنچے تو کیا روبوٹ کو رک جانا چاہیۓ؟
کیا صوفیہ روبوٹ کی طرز کے سٹنٹ اخلاقی طور پر درست ہیں؟
یہ سب سوالات ہیں مشینوں کی اخلاقیات کے یعنی روبوایتھکس کے۔ پہلے ایک نظر اخلاقیات کے پس منظر پر۔
سائنس میں مجبوری سے مختاری تک کی تین سٹیجز سمجھی جاتی ہیں۔ فزکس یا کیمسٹری کے کرداروں میں مقصد کے معنی نہیں۔ الیکٹران کے جذبات نہیں، تیزاب کے ساتھ ہونے والا ری ایکشن میں تیزاب نے سوچ سمجھ کے نہیں کیا، چاند فزکس کے اصولوں کے تابع زمین کے گرد محوِ گردش ہے۔
جب ہم بائیولوجی تک پہنچیں تو اس کے اصول فزکس اور کیمسٹری پر ہیں لیکن کرداروں کا طریقہ بدل جاتا ہے اور بظاہر مقصد نظر آنا شروع ہوتا ہے۔ دفاعی نظام کا خلیہ حملہ آور جراثیم کا پیچھا اسے مار ڈالنے کے لئے کر رہا ہے، اگرچہ اس کی اپنی کوئی سوچ نہیں۔
جب بڑھتے سوشل سائنس میں آئیں تو پھر اس کے ہر شعبے کے کردار خالص مقصد کی بنیاد پر کام کرتے ہیں، خواہ مقصد منافع ہو، زندگی کی خوشی یا کچھ اور۔ ایک عدالت میں ملزم اپنا دفاع اس طرح نہیں کرے گا کہ تشدد اس کی جینیات میں تھا یا اس کا نیورون فائر ہی ایسے ہوا۔
اسی طرح ذہین مشینیں بھی کمپیوٹر سائنس کے پروگرامز کے تحت فیصلے کرتی ہیں لیکن ان اصولوں سے ہوئے فیصلوں کے معاشرے پر گہرے اثرات ہو سکتے ہیں جن کے اخلاقی، قانونی اور سماجی پہلو ہیں۔ 2010 میں اس پر بحث کے لئے پہلی کانفرنس ہوئی اور اب اخلاقی پہلوؤں پر اس وقت دنیا بھر کے دو سو ماہرین رضاکارانہ طور پر مصنوعی ذہانت کا ضابطہ اخلاق مرتب کر رہے ہیں، اس امید کے ساتھ کہ اس شعبے میں ٹیکنالوجی اس راہ پر نہ نکل جائے جس سے پھر واپسی ممکن نہ ہو۔
اس پر پہلے یہ پانچ اصول 2011 میں تجویز ہوئے تھے جو یہ تھے۔
1۔ روبوٹ آلات ہیں اور ان کو انسانوں کو نقصان پہنچانے یا قتل کرنے کے لئے نہیں بنایا جائے
2۔ ان کے اعمال کے ذمہ دار یہ روبوٹ نہیں بلکہ ان کو کنٹرول کرنے والے انسان ہیں۔ ان کا ڈیزائن قانون، بنیادی حقوق اور شخصی آزادی کی خلاف ورزی نہیں کرے
3۔ روبوٹ مصنوعات ہیں۔ ان کے ڈیزائن میں باقی پراڈکٹس کی طرح حفاظت اور سیکورٹی کا خیال رکھا جائے گا۔
4۔ ان کو دھوکا دہی کے لئے استعمال نہیں کیا جائے گا۔ کسی صورت میں یہ تاثر نہ ملے کہ یہ مشین نہیں تا کہ لوگ غلط تاثر نہ لیں
5۔ ان کے کام سے ہونے والے نتائج کی قانونی ذمہ داری کا تعین پہلے سے ہو گا
اس کے بعد سے ان کو اخلاقیات کا پابند کرنے پر اور بہت سی تجاویز اور کام ہو چکا ہے۔ اس کی تفصیل یہاں سے
آئی ایس او میں تجویز کردہ ڈرافٹ کے بارے میں جاننے کے لئے
اس پر لکھی جانے والی کتاب
Robot Ethics 2.0 by Patrick Lin