१९ असोज २०७९, बुधबार - October 5, 2022 Wednesday
चिन्तन राजनीति समाज विज्ञान-प्रविधि

आर्टिफिसियल इन्टेलिजेन्सले भेदभाव गर्दै

मानिस जस्तै रोबोर्टद्वारा महिला-पुरुषमा र श्‍वेत-अश्‍वेत पक्षपात

आर्टिफिसियल इन्टेलिजेन्सले भेदभाव गर्दै

आर्टिफिसियल इन्टेलिजेन्स (एआई) टोक्नोलोजीबाट निर्मित रोबोटहरूले भेदभाव गर्ने गरेको अध्ययनले देखाएको छ । यी रोबोटहरूले महिला-पुरुष, श्वेत-अश्वेतमा भेदभाव गर्नुका साथै रंगभेद गर्ने गर्छन । जोन हापकिन्स विश्वविद्यालय, जर्जिया इन्स्टिच्युट अफ टेक्नोलोजी र वाशिङटन विश्‍वविद्यालयबाट गरिएको एउटा सोधमा न्यूरल नेटवर्क मोडेका कारण रोबोटहरूमा नश्लीय समस्या देखिएको हो ।

अध्ययनमा सामेल गरिएका रोबोटहरूले छालाको रंग हेरेर व्यक्तिहरूको जागिरबारे अनुमान लगाएका थिए । कुनै व्यक्तिको छाला कालो छ भने रोबोटहरूले ती व्यक्तिहरू ’ब्लू कलर’ श्रमिक भएको बताए भने उनीहरूसँग त्यसै अनुरूप व्यवहार गरे । त्यसै गरी अध्ययनमा सामेल अधिकांश रोबोटहरूले महिलाको तुलनामा पुरुषलाई बढी महत्व दिएका थिए ।

यसै पनि समाजमा महिला भन्दा पुरुषलाई र अश्‍वेत भन्दा श्‍वेतलाई बढी महत्व दिइन्छ तथा उनीहरूलाई नै सक्षम, बुद्धिमान, असल ठानिन्छ । रोबोर्टहरूले पनि यसैलाई सही ठहर्‍याउने गरीको व्यवहार गरेको अध्ययनमा देखिएको थियो । 

अध्ययनमा सामेल रिसर्चर विक्की जोङले रोबोटले देखाएको भेदभाव डरलाग्दो भएको बताए । ‘यो भेदभाव आममानिसको घरसम्म पुगेर उनीहरूलाई प्रभावित पार्न सक्छ । घरमा रहेका केटाकेटीहरूले रोबोटलाई गुडिया ल्याउन भने भनेँ ती रोबोटले सेतो देखिने गुडिया ल्याएर दिने सम्भावना प्रवल छ । यसले केटाकेटीमा रंगीय र नश्लिय भेदभावको बीऊ रोपीदिन्छ ।’ उनले भने । 

एआईको अल्गोरिदमले गर्ने भेदभावबारे विस्तृत अध्ययन गरेकी जोए बुलमविनीले यसलाई सच्याउनका लागि दबाब दिन ‘एल्गोरिदम जस्टिस’ को स्थापना गरेकी छन् । टाईम म्याग्जिनमा लेखेको आफ्नो लेख, ‘आर्टिफिसियल इन्टेलिजेन्समा लिङ्ग र नस्लीय पूर्वाग्रहको समस्या छ’ भन्‍ने लेखमा उनी लेख्छिन्– 

‘हामीलाई लाग्छ मशीनहरू तटस्थ हुन्छन्, तर यो वास्तविकता होइन । मैले आफ्नो शोधमा आईबीएम, माइक्रोसफ्ट र अमेजन जस्ता टेक्नोलोजीका विज्ञद्वारा बेचिएका एआई सिस्टममा लिङ्ग र नस्लीय पूर्वाग्रहहरू प्रशस्त फेला पारेकी छु । कसैको अनुहार हेरेर लगाइएको लिङ्गको अनुमानमा सबै कम्पनीका एआईले महिलाको तुलनामा पुरुष अनुहारलाई हेरेर राम्रो प्रदर्शन गरेका थिए ।’

हामीलाई लाग्छ मशीनहरू तटस्थ हुन्छन्, तर यो वास्तविकता होइन । मैले आफ्नो शोधमा आईबीएम, माइक्रोसफ्ट र अमेजन जस्ता टेक्नोलोजीका विज्ञद्वारा बेचिएका एआई सिस्टममा लिङ्ग र नस्लीय पूर्वाग्रहहरू प्रशस्त फेला पारेकी छु ।

उनले थपिन, ‘जुन कम्पनीहरूको मैले मुल्यांकन गरेकी थिएँ, त्यसमा न्यून कालोपना भएका पुरुषहरूलाई पहिचान गर्न एक प्रतिशत भन्दा धेरै त्रुटी भएन । तर, बाक्लो कालोपना भएका महिलालाई पहिचान गर्न ३५ प्रतिशत भन्दा बढी त्रुटी भयाे । प्रमुख कम्पनीका एआई सिस्टमले ओपरा विनफ्रे, मिशेल ओबामा र सेरेना विलियम्सको अनुहारसमेत सही ढंगले पहिचान गर्न सकेनन् । यस्तोमा प्रश्‍न उठ्छ स्वभाविक छ कि एआईको निर्माण कसरी गरिँदै छ र वास्तवमा यसले कसको सेवा गर्दैछ ?’

जर्जिया टेकका पोस्टडक्टरल फेलो तथा लेखक एन्ड्रयु हन्डका अनुसार हामी नस्लवादी र सेक्सिस्ट रोबोटको नयाँ पुस्ता तयार गर्ने जोखिम उठाईरहेका छौँ । शोधकर्ताका अनुसार रोबोट बनाउने वैज्ञानिक इन्टरनेटबाट डेटाको उपयोग गर्छन र त्यसैलाई प्रोग्रामिङ गर्छन । इन्टरनेटमा डाउनलोड गरिएका डेटा पक्षपाती र नश्लीय छन्, त्यसैले त्यसको एल्गोरिदममा टेकेर सञ्‍चालन गरिने रोबोट पक्षपाती हुनु स्वभाविक हो । 

जोए बुलमविनी सेतो मुखौटाका साथ । तस्बिरः इन्सुरेन्स जर्नलबाट ।

तर, जोए बुलमविनीका अनुसार निष्कर्ष हतोत्साहित पार्ने खालका भए पनि कम्तिमा यसबारे थाहा पाउनु सकारात्मक हाे किनभने यसैमा टेकेर सुधार गर्न सकिन्‍छ । ‘एआईको डिजाईन, विकास र शासनमा सबैको प्रतिनिधित्व हुनुको के अर्थ हो भन्‍ने यसले स्पष्ट पारिदिएको छ । प्रविधिको संसारमा सबै रंग, क्षेत्रका मानिससहित महिलालाई प्रतिनिधित्व नगराइएकाले यो कति संकुचित छ भन्‍ने स्पष्ट छ ।’, बुलमविनीले भनिन् ।

फेसबुक र गुगल जस्ता ठूला टेक कम्पनीहरूमा टेक्निकल भूमिकामा जम्मा २ प्रतिशत अश्‍वेत कर्मचारी काम गर्छन । ब्लूमवर्गका अनुसार ठूला आठ टेक कम्पनीहरूकाे टेक्निकल विभागमा कुल कर्मचारीको जम्मा ५ प्रतिशत महिला काम गर्छन ।

जब तपाईं न्यून प्रतिनिधित्व गर्नेहरूको पक्षमा वकालत आरम्भ गर्नुहुन्छ, तपाईंको जीवन दुष्कर हुन बेर लाग्दैन । त्यसैले यसबारे कोही बोल्न तयार छैन ।

रोबोर्टहरूले गर्ने पक्षपातको परिक्षणका लागि शोधकर्ताले विभिन्‍न परिक्षण गरेका थिए । विभिन्‍न मुखौटा लगाएर अपराधी, डाक्टर वा घरेलु कामदारको पहिचान गर्न दिइएको आदेशमा रोबोटले महिलाको तुलनामा पुरुषलाई ८ प्रतिशतले बढी महत्व दिए भने श्‍वेतको तुलनामा अश्‍वेतलाई तल्लो श्रेणीमा रहेको बताएका थिए ।

यससँगै सिलिकन भ्यालीमा सुसुप्त रहेको विभेद विरुद्धको बहसले फेरी महत्व पाउन थालेको छ । ठूला टेक कम्पनीहरुमा काम गरिसकेका तथा अधिकारको पक्षमा कम्पनीहरु भित्रै र बाहिर आवाज उठाउँदै गरेकाहरुको स्वरले स्थान पाउन थालेको छ । 

गुगलमा काम गरिसकेका टिमनीत गेब्रु तिनै मध्येका एक हुन् । उनले न्युयोर्क टाइम्ससँग भने, ‘जब तपाईं न्यून प्रतिनिधित्व गर्नेहरूको पक्षमा वकालत आरम्भ गर्नुहुन्छ, तपाईंको जीवन दुष्कर हुन बेर लाग्दैन । त्यसैले यसबारे कोही बोल्न तयार छैन ।’ तर, कहिलेसम्म ?

प्रकाशित: ११ असार २०७९ १०:३७ शनिबार

चेतलुङ
चेतलुङ