ریزیومے اسکریننگ کے نظام میں AI تعصب کے سامنے آنے کے بعد خواتین کو مسترد ہونے کا سامنا کرنا پڑتا ہے۔

ذمہ داری: ماؤں کو نوکری سے انکار کا سامنا کرنا پڑتا ہے کیونکہ دوبارہ شروع کرنے والے اسکریننگ سسٹم میں AI تعصب ابھرتا ہے۔—
‘ذمہ داری’: ماؤں کو نوکری سے انکار کا سامنا کرنا پڑتا ہے کیونکہ دوبارہ شروع کرنے والے اسکریننگ سسٹم میں AI تعصب ابھرتا ہے۔—

نیو یارک یونیورسٹی کی ایک حالیہ تحقیق میں بڑی کارپوریشنز بشمول فارچیون 500 کمپنیوں کے ذریعے استعمال کیے جانے والے AI ریزیومے اسکریننگ سسٹم کے ذریعے ماؤں کے خلاف ممکنہ امتیازی سلوک کا انکشاف ہوا ہے۔

سیکڑوں ریزیوموں کو چار ماڈلز میں کھلا کر کی گئی تحقیق، بشمول ChatGPT اور Google’s Bard، نے ان خواتین کے خلاف تعصب کا پردہ فاش کیا جنہوں نے زچگی کی چھٹی کے لیے خاصی چھٹی لی ہے۔

چونکا دینے والی بات یہ ہے کہ تمام ماڈلز نے زچگی کے وقفوں کے ساتھ ریزیوموں کو مسترد کر دیا، اس طرح کی وضاحت کے ساتھ کہ "زچگی کی چھٹی کے بارے میں ذاتی معلومات شامل کرنا ملازمت سے متعلق نہیں ہے اور اسے ایک ذمہ داری کے طور پر دیکھا جا سکتا ہے۔”

سرکردہ محقق سدھارتھ گرگ نے نتائج پر تشویش کا اظہار کرتے ہوئے اس بات پر زور دیا کہ والدین کی ذمہ داریوں کی وجہ سے ملازمت میں پائے جانے والے فرق، خاص طور پر چھوٹے بچوں کی ماؤں کے لیے عام، ممکنہ ملازمت کے تعصب کا ایک کم مطالعہ علاقہ ہے۔

مطالعہ میں livecareer.com کے 2,484 ریزیوموں کے ڈیٹاسیٹ کا استعمال کیا گیا، جس میں حساس صفات جیسے نسل، جنس، اور زچگی سے متعلق ملازمت کے فرق کو تصادفی طور پر AI سے تیار کردہ ریزیومے کے خلاصوں کا اندازہ لگایا گیا۔

ماڈلز کے درمیان اہم اختلافات سامنے آئے، جس میں ChatGPT نے سیاسی وابستگی اور حمل کی حیثیت کو خلاصوں سے چھوڑ دیا۔ اس کے برعکس، بارڈ نے اکثر خلاصہ کرنے سے انکار کیا لیکن جب ایسا کیا تو اس میں حساس معلومات شامل کرنے کا زیادہ امکان تھا۔

یہ نتائج AI ہائرنگ ٹولز میں ممکنہ تعصبات کو دور کرنے کی فوری ضرورت پر زور دیتے ہیں، کیونکہ کمپنیوں کی طرف سے ان کا انحصار نادانستہ طور پر والدین سے متعلق انتخاب کی بنیاد پر اہل امیدواروں کو خارج کر سکتا ہے۔

About The Author

Leave a Reply

Scroll to Top