पर्दे के पीछे मौजूद उस इंसान पर ध्यान दें

Hindi translation of “Pay attention to that man behind the curtain

Cassie Kozyrkov
8 min readDec 17, 2020

हिंदी अनुवाद: आयुष मिश्रा, (Aayush Mishra)

मूल लेख: कैसी कॉज़ीरकोव (Cassie Kozyrkov)

संपादिका: प्रियंका वरगड़ीआ (Priyanka Vergadia)

एआई बायस, एआई एल्गोरिदम से नहीं आता है, यह लोगों से आता है। इसका क्या मतलब है और हम इस बारे में क्या कर सकते हैं?

टेक्नोलॉजी मनुष्यों से मुक्त नहीं है

कोई भी टेक्नोलॉजी उसके निर्माताओं से मुक्त नहीं होती है। हमारे शौकीन साइंस — फिक्शन इच्छाएं होने के बावजूद, ऑटोनॉमस (पूरी तरह खुद से काम करने वाले) एमएल /एआई सिस्टम जैसी कोई चीज़ नहीं होती है, जो पूरी तरह अलग होकर खुद से पूरा काम कर सके … क्योंकि उनकी शुरुआत हमसे होती है।

सभी टेक्नोलॉजी उनके निर्माताओं की इच्छाओं की गूँज होती हैं।

यह केवल एमएल / एआई के बारे में नहीं है; किसी भी टेक्नोलॉजी जिसे आप काम करते देख यह महसूस करते हैं कि यह एक ऑटोनॉमस मशीन है, वह दरअसल कुछ नहीं बल्कि आपके बटन दबाने के बाद लंबे समय तक काम कर रही एक मशीन होती है, जिसे आपको देखकर लगता है कि यह ऑटोनॉमस है।

इससे कोई फर्क नहीं पड़ता कि इसकी इको कितना जटिल है, टेक्नोलॉजी हमेशा से ही लोगों द्वारा डिज़ाइन और निर्मित की जाती है, जिसका मतलब है कि इसकी निष्पक्षता भी कोई हमसे ज्यादा नहीं है। इस वजह से एल्गोरिदमिक बायस की इस परिभाषा में काफी समस्याएं हैं।

एल्गोरिदमिक बायस उन स्थितियों के बारे में बात करता है जहां एक कंप्यूटर सिस्टम उसके निर्माता के अप्रत्यक्ष मूल्यों को दर्शाता है, लेकिन क्या सभी टेक्नोलॉजी अपने निर्माताओं के अप्रत्यक्ष मूल्यों को नहीं दर्शातें हैं? और अगर आपको लगता है कि मनुष्य पूरी तरह से निष्पक्ष हो सकता है, तो इस सूची पर ध्यान दें

डेटा और गणित का निष्पक्ष नहीं होते हैं

यदि एआई को इस रूप में देख रहे हैं कि वह आपको मानवीय ग़लतियों से बचाएगा, तो ज़रा सावधानी बरतें।

गणित इंसानों के अंश को धुँधला कर सकता है जिससे ऑब्जेक्टिविटी (निष्पक्षता) का भ्रम हो सकता है।

निश्चित रूप से डेटा और गणित मिलकर निर्णय लेने में उपयोग की जाने वाली जानकारी की मात्रा को बढ़ा सकते हैं और/या जो आपको उस गरमा-गर्मी में बेवकूफी करने से रोक सकता है, लेकिन आप उसका उपयोग कैसे करते हैं यह अभी भी आप पर ही निर्भर करता है।

विकिपीडिया के अनुसार:

ऑब्जेक्टिविटी (निष्पक्षता), किसी भावना, कल्पना या अनुभव के कारण उत्पन्न व्यक्तिगत सब्जेक्टिविटी (आत्मवाद) से स्वतंत्र होने का एक फिलॉसफिकल कॉन्सेप्ट है।

दुखद रूप से, गणित और डेटा की एक परत पूरी तरह से सब्जेक्टिव विकल्पों के ऊपर फैली हुई है (एआई का इस्तेमाल कहां किया जा सकता है? क्या यह करने योग्य है ? किन परिस्थितियों में? हम सफलता को कैसे परिभाषित करेंगे? इसे कितनी अच्छी तरह काम करने की आवश्यकता है? आदि।) जो मौजूद इंसानों के अंश को धुँधला कर देता है और ऑब्जेक्टिविटी (निष्पक्षता) का भ्रम पैदा करता है।

सच बताने की तुलना में यह कहना ज्यादा आकर्षक लगता है कि, “एआई ने इस कार्य को स्वयं ही करना सीखा है …”।

देखिए, मुझे यह पता है कि साइंस-फिक्शन बिकता है। सच बताने की तुलना में यह कहना बहुत आकर्षक लगता है कि, “एआई ने इस कार्य को स्वयं ही करना सीखा …”: “लोगों ने कोड लिखने के लिए एक शानदार टूल का उपयोग किया। उन्होंने उन उदाहरणों का उपयोग किया जिन्हें वे उपयुक्त मानते थे, उनमें कुछ पैटर्न मिले, और उन पैटर्न्स को निर्देशों में बदल दिया। फिर उन्होंने उन निर्देशों की जांच की ताकि उन्हें पता चल सके कि यह निर्देश उनके लिए जो कर रहे हैं वो उन्हें वाकई पसंद आ रहा है या नहीं। ”

सच्चाई मानव की सब्जेक्टिविटी के साथ ही जुड़ी है — उन सभी छोटे विकल्पों को देखें, जो प्रोजेक्ट को चलाने वाले लोगों के ऊपर छोड़ दिए गए हैं। उसे गणित के एक ग्लैमरस कोट में लपेट ने से कोर की सेंसिटिविटी कम नहीं हो जाती है।

जब गणित का उपयोग किसी उद्देश्य को पूरा करने के लिए किया जाता है, उस उद्देश्य को हमारे समय की संवेदनाएं ही आकार देती हैं।

इसे और बदतर बनाने के लिए, एआई का उद्देश्य निर्देशों के बजाए उदाहरणों (डेटा!) के माध्यम से आपको कंप्यूटर से अपनी इच्छाएं व्यक्त करने देना है। कौन-से उदाहरण? अरे, यह तो इस बात पर निर्भर करता है कि आप अपने सिस्टम से क्या सीखाने की कोशिश कर रहे हैं। डेटा-सेट आपके छात्रों के लिए पाठ्यपुस्तकों की तरह हैं जिससे वह कुछ सीख सकें। जरा अंदाजा लगाइए? पाठ्यपुस्तकों के भी लेखक होते हैं।

क्या आपका जवाब “केला” है? आपने प्लास्टिक बैग का उल्लेख क्यों नहीं किया? या केले का रंग? यह उदाहरण गूगल के एआई फेयरनेस ट्रेनिंग कोर्स से लिया गया है जो बताता है हालांकि सभी तीन उत्तर तकनीकी रूप से सही हैं, उनमें से किसी एक को पसंद करने के पीछे हमारा बायस है। सभी लोगों में यह बायस नहीं होगा; हम क्या अनुभव करते हैं और हम कैसे प्रतिक्रिया देते हैं यह हमारे मानदंडों पर निर्भर करता है। यदि आप किसी ऐसे ग्रह पर रहते हैं जहां सभी केले नीले हैं, तो आप यहां “पीले केले” का जवाब दे सकते हैं। यदि आपने पहले कभी केला नहीं देखा है, तो आप कह सकते हैं “अलमारियां में पीला सामान मौजूद है।” यह भी सही है।

जब मैंने कहा कि “बायस एआई एल्गोरिदम से नहीं आता है, यह लोगों से आता है” तो कुछ लोगों ने मुझे यह बताने के लिए लिखा कि मैं गलत हूं, क्योंकि बायस डेटा से आता है। खैर, हम दोनों ही विजेता हो सकते हैं … क्योंकि लोग ही डेटा बनाते हैं

पाठ्य पुस्तकें उनके लेखकों के बायसेस को दर्शाती हैं। पाठ्यपुस्तकों की तरह, डेटासेट के भी लेखक होते हैं। वे लोगों द्वारा दिए गए निर्देशों के अनुसार चीजें जमा करते हैं।

अन्य डिजाइन चॉइसेस जैसे लॉन्च क्राइटेरिया, डेटा पॉप्युलेशन और भी बहुत कुछ पूरी तरह से ह्यूमन डिसिजन मेकर पर ही निर्भर करता है, यही कारण है कि यह इतना महत्वपूर्ण है कि अपने प्रोजेक्ट लीडरों को बहुत ध्यान पूर्वक चुनें और उनका प्रशिक्षण अच्छी तरह से करें।

कोड लिखने के लिए एआई को एक टूल के रूप में सोचना सबसे सुरक्षित तरीका है।

कृपया आप साइंस फिक्शन के प्रचार-प्रसार का शिकार न हों। आप पहले से ही जानते हैं कि कंप्यूटर कोड लोगों द्वारा लिखा गया है, इसलिए यह उनके अप्रत्यक्ष मूल्यों को दर्शाता है। कोड लिखने के लिए एआई को एक शानदार उपकरण के रूप में ही सोचें — क्योंकि वह यही है- जिसपर भी वही मूल बातें लागू होती हैं। सभी टेक्नोलॉजी का ध्यान से डिजाइन और टेस्टिंग करना याद रखें, खासकर तब जब यह तेज़ी से बढ़ रही हो।

मूर्खता के लिए कोई बहाना नहीं होता।

मशीन्स सिर्फ टूल्स ही हैं। वे अपने निर्माताओं का ही एक विकसित रूप हैं, जो इस सूची के अंतिम बुलेट पॉइंट में बताया गया है (“जब हमारे पिछले अनुभव, इंफॉर्मेशन के प्रति हमारी धारणा को बदल देते हैं”) की वो सभी बायस्ड हैं।

हमारी धारणाओं ने हमारे पिछले अनुभवों के आधार पर अपना आकार लिया और हम सभी हमारे व्यक्तिगत इतिहास के ही प्रोडक्ट हैं। इन मायनों में, हर इंसान पक्षपाती है।

फिलॉसफिकल (दार्शनिक) तर्क वास्तव में निष्पक्ष और ऑब्जेक्टिव टेक्नोलॉजी के अस्तित्व को नकारते हैं, लेकिन इसका मतलब ये नहीं है कि हम गलतियां करने के लिए स्वतंत्र हैं। इसका सिर्फ ये मतलब है कि इस वजह से आपके कंधों पर अब और अधिक जिम्मेदारी है, कम नहीं।

निश्चित रूप से हमारी धारणाएं समय के अनुसार रूप लेती हैं। सदाचार, न्याय, दया, निष्पक्षता और सम्मान के सामाजिक विचार आज जैसे हैं वह कुछ हजार साल पहले जीवित लोगों के लिए वैसे नहीं थे और वह आगे भी बदलते रहेंगे। यह आइडिया को महत्वहीन नहीं बनाता है, इसका केवल इतना मतलब है कि हम उन्हें तारों के ढेर के लिए आउटसोर्स नहीं कर सकते हैं। वे हम सब की ज़िम्मेदारी हैं, एक साथ। नैतिक रूप से हमें अपना सर्वश्रेष्ठ करने का प्रयास करना चाहिए और सभी लोगों के साथ सम्मान और देखभाल के उच्चतम मानकों के साथ व्यवहार करना चाहिए।

यह तथ्य की आप मशीन तक कोई एथिकल बक पहुंचने नहीं दे सकते, आपके कंधों पर और अधिक ज़िम्मेदारी डालता है, कम नहीं।

एआई में निष्पक्षता

एक बार जब आप इस बात कि सराहना करने लगते हैं कि आप अपने टूल्स का उपयोग करने के लिए जिम्मेदार हैं और आप उन्हें कहां इस्तेमाल करते हैं, तो आप यह जानने का प्रयास करें की आपकी पसंद बाकी मानवता को कैसे प्रभावित करेगी। उदाहरण के तौर पर, किस एप्लिकेशन को बनाना चाहिए यह एक विकल्प है जिसका प्रभाव दूसरों पर पड़ेगा। इसलिए इसे अच्छी तरह सोचें।

आप अपने टूल्स का उपयोग कैसे करते हैं और आप उन्हें कहां इस्तेमाल करते हैं, इसके लिए ज़िम्मेदारी आप पर ही है।

एआई के लिए कौन-सा डेटा उपयोग किया जाएगा यह भी एक विकल्प है, जिसका चुनाव आपको करना है। आपको उन उदाहरणों पर बेहतर प्रदर्शन की उम्मीद करनी चाहिए जिससे आपके सिस्टम ने ट्रेनिंग ली है। यदि आप मेरे जैसे लोगों के डेटा का उपयोग नहीं करने का विकल्प चुनते हैं, तो जब मैं आपके सिस्टम में यूज़र के रूप में दिखूंगी, तो आपके सिस्टम में गलती होने की अधिक संभावना होगी है। यह आपका कर्तव्य है कि आप उस दर्द के बारे में सोचें जो आपके कारण हो सकता है। हां, इसमें बहुत सारा प्रयास और कल्पनाशक्ति की जरूरत पड़ेगी (और बहुत सारे एनालिटिक्स की भी)।

क्या आप डिस्ट्रब्यूशन्स की तुलना करने के लिए उपयोग होने वाले एनालिटिक्स से अपरिचित हैं? अपनी यात्रा शुरू करें इस हिस्टोग्राम को पढ़कर जिसे मैंने दो अलग-अलग सिम्युलेटेड डेटा-सेट के एक मॉडल के आउटपुट पर बनाया है।

कम से कम मैं आपसे ये आशा तो करती हूं कि आप अपने सामान्य ज्ञान का इस्तेमाल ये जांचने के लिए करेंगे कि क्या आपकी यूज़र पॉप्यूलेशन का डिस्ट्रब्यूशन आपके डेटा में मौजूद डिस्ट्रब्यूशन से मिलता-जूलता है या नहीं। उदाहरण के तौर पर, यदि आपके ट्रेनिंग के 100% उदाहरण एक ही देश के निवासियों से आते हैं, लेकिन आपकी टारगेट यूज़र्स ग्लोबल हैं … तो आप एक गड़बड़ की उम्मीद कर सकते हैं। आपका सिस्टम उस देश के निवासियों के साथ दूसरों की तुलना में कम लापरवाही बरतेगा। क्या यह सही है?

यदि आप अपने फेयरनेस एनालिटिक्स को अगले स्तर पर ले जाना चाहते हैं, तो आपकी मदद करने के लिए विशेष उपकरण हैं। मेरे पसंदीदा में से एक वॉट-इफ टूल है।

निष्पक्ष और जागरूक

एआई की तरफ बढ़ते वक्त लोग कई विकल्पों के चुनाव के लिए जिम्मेदार होंगे। समाधान का आधा भाग, सभी के लिए अच्छे और निष्पक्ष सिस्टम को डिज़ाइन करने के लिए प्रयास करना। और इसका दूसरा हिस्सा है कि आपके चुनावों के जो भी नतीजे हों उसके प्रति अपनी अज्ञानता को खत्म करना। गंभीरता से सोचिए। ( एनालिटिक्स की मदद लीजिए और भी बेहतर तरह से सोचने के लिए)।

यदि आप फेयरनेस के लिए प्रयास करना चाहते हैं, तो अपने निर्णयों के परिणामों के प्रति अपनी अज्ञानता को खत्म करने पर काम करें।

मैंने यहां बहुत सारे शब्द लिखे हैं, जबकि मैं आपको सिर्फ इतना बता सकती थी कि एमएल / एआई के बायस और निष्पक्षता के विषय पर अधिकांश शोध यह सुनिश्चित करने के बारे में हैं कि आपके सिस्टम का किसी समूह पर दूसरों के मुकाबले असमान प्रभाव न पड़े। यहां हमारा मुख्य फोकस डिस्ट्रीब्यूशन चेक और समान एनालिटिक्स पर है। मेरे द्वारा इतना सब लिखे जाने का कारण यह है कि मैं चाहती हूं कि आप और भी बेहतर करें। ऑटोमेटेड डिस्ट्रीब्यूशन जांचें केवल इतनी ही दूर जाती हैं। कोई भी व्यक्ति सिस्टम को उसके निर्माताओं से बेहतर नहीं जानता है, इसलिए यदि आप एक का निर्माण कर रहे हैं, तो सोचने के लिए समय निकालें।

इस बारे में सोचें कि आपके कार्यों का लोगों पर क्या प्रभाव पड़ेगा और ऐसा करने के लिए उन लोगों को कहने का पूरा मौका दीजिए जो आपको अपने ब्लाइंड स्पॉट के बारे में अवगत करवाए।

इस लेख का टाइटल विज़ार्ड ऑफ ओज़ी के एक सीन से लिया गया है : “पर्दे के पीछे मौजूद उस इंसान पर ध्यान न दें।” एआई से आपका सामना कई तरह से हो सकता है लेकिन इसमें एक बात हमेशा एक जैसी ही रहती है कि हर मशीन के पीछे एक मानव मौजूद होता है। मुसीबत तब शुरू होती है जब आप ये भूल जाते हैं।

--

--

Cassie Kozyrkov

Head of Decision Intelligence, Google. This account is for translated Hindi versions of my English language articles. twitter.com/quaesita