आखिरी गिरावट, टंबलर उपयोगकर्ताओं ने मार्टिन स्कॉर्सेज़ की 1973 की फिल्म “के बारे में बहुत कुछ कहा”गोंचारोव,” रॉबर्ट डी नीरो और अल पैचीनो अभिनीत। उन्होंने कम प्रसिद्ध स्कॉर्सेज़ क्लासिक को अब तक की सबसे बड़ी माफिया फिल्म के रूप में देखा। यह अपने समय से आगे था, कभी भी वह प्रशंसा अर्जित नहीं कर पाया जिसके वह हकदार था।
अब तक, हम सभी को पता होना चाहिए कि ‘गोंचारोव’ एक वास्तविक फिल्म नहीं है, भले ही स्कॉर्सेसी खुद मजाक में आ गए. यह सिर्फ एक है Tumblr मेमे जो साइट-वाइड गैग में सर्पिल हो गया, क्योंकि उपयोगकर्ता साझा Google डॉक्स में दूर हो गए, सहयोगात्मक रूप से “हां, और” एक दूसरे के साथ इतनी ईमानदारी और सटीकता के साथ काम कर रहे थे कि बनी-बनाई फिल्म वैध लग सकती थी।
जैसे-जैसे एआई छवि निर्माण बेहतर होता जाता है, इंटरनेट “गोंचारोव” के क्षण में टंबलर जैसा महसूस करता है। हम नई सामूहिक वास्तविकताओं का निर्माण कर रहे हैं, केवल इस बार, हम गलती से बिना ज्यादा सोचे-समझे पोस्ट करके उन्हें उत्पन्न कर रहे हैं।
जब एआई छवि जनरेटर मिडजर्नी ने मध्य यात्रा 5 मॉडल दो हफ्ते पहले, इसके अति-यथार्थवादी आउटपुट तेजी से वायरल हो गए। परिणामी छवियों में से कुछ ने इन आसानी से सुलभ उपकरणों के खतरों को चित्रित किया, जैसे नकली तस्वीरों की एक श्रृंखला डोनाल्ड ट्रम्प की गिरफ्तारी.
छवियों का नाटकीय सेट ट्रम्प को जबरन गिरफ्तारी का विरोध करता है, फिर अन्य दृश्यों के बीच पुलिस अधिकारियों के एक दस्ते से दूर भागता है। खोजी पत्रकारिता आउटलेट बेलिंगकैट के संस्थापक एलियट हिगिंस द्वारा बनाई गई छवियां, जो इंटरनेट के चारों ओर जंगल की आग की तरह फैलती हैं। हिगिंस के शुरुआती ट्वीट्स ने यह स्पष्ट कर दिया कि वह केवल एआई छवि जनरेटर के साथ खेल रहे थे, लेकिन वे बिना किसी संदर्भ के तेजी से फैल गए।
अन्य वायरल एआई छवियां अधिक सौम्य हैं, जैसे व्यापक रूप से परिचालित तस्वीर पोप फ्रांसिस द्वितीय एक उच्च फैशन लुक पेश कर रहा है एक शानदार, सफ़ेद Balenciaga कोट में। में से केवल एक वायरल ट्वीट्स छवि के बारे में 26 मिलियन से अधिक बार देखा गया था।
पिछले हफ्ते वायरल होने वाला यह एकमात्र बालेंसीगा-संबंधित एआई मेम भी नहीं था। नाम का उपयोग करने वाला एक निर्माता funfly वास्तविक, एआई-संचालित पैरोडी वीडियो बनाने के लिए मिडजर्नी छवियों, ग्यारह लैब्स भाषण और डी-आईडी एनीमेशन का उपयोग कर रहा है। उनका सबसे व्यापक रूप से फैला हुआ वीडियो है “बालेंसीगा द्वारा हैरी पॉटर,” एक हाई-फ़ैशन-शैली का विज्ञापन जिसमें फ़्रैंचाइज़ी के पात्रों की सिंथेटिक प्रस्तुतियाँ इस तरह की बातें कहती हैं, “यू आर बालेंसीगा, हैरी।”
डेमोनफ्लाइंगफॉक्स ने टेकक्रंच को बताया कि वह जानबूझकर अपने वीडियो को इतना अजीब बनाने की कोशिश करता है कि कोई गलती से विश्वास न कर सके कि वे असली हैं। (यह जानने के लिए एक समझदार दर्शक नहीं लेता है कि जो रोगन वास्तव में कभी नहीं है ईसा मसीह का साक्षात्कार लिया और डंबलडोर ने अफसोस के साथ हैरी पॉटर फिल्मों में चमड़े की जैकेट और धूप का चश्मा नहीं पहना।) वह अद्यतन सॉफ़्टवेयर के बजाय जानबूझकर मिडजर्नी 4 का उपयोग करता है ताकि उसके पात्र इतने यथार्थवादी न दिखें कि वे विश्वसनीय दिखें।
“मैं जो कर रहा हूं वह इतना स्पष्ट रूप से नकली है कि मुझे वास्तव में गलत सूचना फैलाने की चिंता नहीं है, न ही यह मेरा इरादा है,” डेमोनफ्लाईंगफॉक्स ने कहा। “लेकिन मैं उपकरणों की शक्ति के बारे में जानता हूं और ऐसा करना अभी बहुत आसान है।”
आधार जितना अधिक विश्वसनीय होगा, उतनी ही अधिक संभावना होगी कि हम एक सिंथेटिक छवि को तथ्य के रूप में पंजीकृत करेंगे। यदि आप पापल पोशाक के विशेषज्ञ नहीं हैं, तो आप संभवत: विश्वास कर सकते हैं कि पोप के पास सर्दियों की सैर के लिए एक किक-गधा सफेद पफर जैकेट है – यह वही पोप है जिसका प्रोग रॉक एल्बम पिचफोर्क पर समीक्षा की गई, और जिन्होंने एक बार नाइट क्लब बाउंसर अर्जेंटीना मे।
यहां तक कि सुपरमॉडल क्रिसी टीजेन भी मजाक के झांसे में आ गईं। “मैंने सोचा कि पोप की पफर जैकेट असली थी और मैंने इसे दूसरा विचार नहीं दिया,” उसने ट्वीट किए. “मैं किसी भी तरह से प्रौद्योगिकी के भविष्य से नहीं बच रहा हूँ।”
ट्रम्प एआई की गिरफ्तारी की तस्वीरें भी वायरल हुईं, लेकिन वास्तविक समाचार ब्रेकिंग के साक्ष्य के लिए अपने ट्विटर टाइमलाइन को स्कैन करने के इच्छुक किसी भी व्यक्ति द्वारा जल्दी से इसकी तथ्य-जांच की जा सकती है। एआई-जनित ऐतिहासिक घटनाओं के लिए यह प्रक्रिया थोड़ी कम स्पष्ट है।
अभी कुछ दिन पहले, Reddit उपयोगकर्ता u/Arctic_Chilean ने इसका एक सेट पोस्ट किया था एआई-जेनरेट की गई तस्वीरें मिडजर्नी सब्रेडिट पर, यह दावा करते हुए कि उन्होंने “द 2001 ग्रेट कैस्केडिया 9.1 भूकंप और सुनामी” को चित्रित किया, जिसने अमेरिका और कनाडा को प्रभावित किया। उस सब्रेडिट की सीमाओं के भीतर, जो मिडजर्नी के एआई टूल्स के साथ प्रयोगों के लिए समर्पित है, यह स्पष्ट है कि ग्रेट कैस्केडिया भूकंप एक वास्तविक घटना नहीं है। लेकिन अगर r/मिडजर्नी आपके फीड पर कई सबरेडिट्स में से सिर्फ एक है, तो छवियों को एक दूसरे विचार के बिना उपभोग करना आसान है।
“क्या मैं अकेला था जो ‘कैसे आया कि मुझे यह याद नहीं आया?’ जैसा था? … सब्रेडिट देखने तक?” एक Reddit उपयोगकर्ता लिखा.
छवियां वास्तविकता के समानांतर पर्याप्त हैं कि वे सच हो सकती हैं। कैस्केडिया सबडक्शन ज़ोन पैसिफिक नॉर्थवेस्ट के पास एक वास्तविक फॉल्ट लाइन है और 1700 में बड़े पैमाने पर विनाशकारी भूकंप का स्थल है। इस क्षेत्र के लोग चिंता करते हैं कि उस पैमाने पर एक आपदा हमारे जीवनकाल में फिर से हो सकता है, एक ऐसा ज्ञान जो संभावित भविष्य की घटनाओं के एआई-जनित दृश्यों को पूर्वाभास की भावना के साथ प्रकट करता है।
कभी-कभी, चैटजीपीटी और बिंग एआई जैसे एआई उपकरण “मतिभ्रम” – एक शब्द का उपयोग तब किया जाता है जब वे नकली जानकारी के साथ आत्मविश्वास से सवालों का जवाब देते हैं। कृत्रिम इमेजरी के समुद्र में डूबे हुए, हम सभी सामूहिक रूप से मतिभ्रम के मुहाने पर हो सकते हैं।
आर/मिडजर्नी में एक रेडडिटर ने कहा, “इस सबरेडिट लोल में पुरानी खबरें पोस्ट करने के लिए मैं आपको रद्दी करने वाला था।” टिप्पणी की. “ये बहुत असली लग रहे हैं यह पागल है।”
इंटरनेट समुदायों में एक आला विचार के इर्द-गिर्द अभिसरण करने और इसके बारे में गहराई से विद्या का निर्माण करने की प्रवृत्ति है, जैसे सहयोगी विश्व-निर्माण का एक कार्य (देखें: “गोंचारोव।”) स्वाभाविक रूप से, इन नकली ऐतिहासिक घटनाओं के साथ भी ऐसा ही हुआ। Reddit उपयोगकर्ताओं ने अपना इतिहास बनाना शुरू किया कि 2001 के भूकंप ने वैश्विक राजनीति को कैसे प्रभावित किया।
“2001 के ग्रेट कॉनकॉर्डिया भूकंप के कारण हुई भयावहता और तबाही के बावजूद, ऐसा लगता है कि दस साल बाद, कुछ लोगों को यह घटना याद है,” लिखा एक अन्य उपयोगकर्ता एक बनावटी समाचार लेख में, उस भूकंप का गलत नाम देना जो कभी हुआ ही नहीं। “यह आतंकवाद पर वैश्विक युद्ध, इराक युद्ध और महान मंदी सहित कारकों के संयोजन के कारण होने की संभावना है।”
Redditor जिसने मूल रूप से छवियों को पोस्ट किया था, ने इस बारे में सिद्धांत दिया था कि कैसे 9/11 से ठीक पहले एक बड़ी आपदा आतंकवाद पर युद्ध को प्रभावित करेगी, प्रस्तुत करना कि आपदा का आर्थिक प्रभाव इराक पर आक्रमण के लिए समर्थन को कमजोर कर सकता है।
चूंकि व्यापक रूप से उपलब्ध एआई छवि जनरेटर तेजी से अधिक परिष्कृत हो जाते हैं, उनकी रचनाएं विश्वसनीय लेकिन पूरी तरह से झूठी छवियों की बाढ़ को समायोजित करने की हमारी क्षमता को पीछे छोड़ सकती हैं। बेहतर या बदतर के लिए, अब अपना खुद का “गोंचारोव” बनाना संभव है, किसी भी अस्पष्ट कल्पना को मूर्त रूप में बदलना और उसे ऑनलाइन रखना।
जबकि इनमें से कई रचनाएँ हानिरहित हैं, यह कल्पना करना मुश्किल नहीं है कि कैसे सिंथेटिक छवियां वर्तमान या ऐतिहासिक घटनाओं के सार्वजनिक ज्ञान में हेरफेर कर सकती हैं।
यह पता चला है कि “बालेंसीगा पोप” के दिमाग की उपज थी शोरुम पर एक इकतीस वर्षीय, जिन्होंने बज़फीड न्यूज को बताया कि उन्होंने एआई छवियों के परिणामों पर विचार नहीं किया था। “यह निश्चित रूप से गंभीर होने जा रहा है अगर वे इसे विनियमित करने के लिए कानूनों को लागू करना शुरू नहीं करते हैं,” उन्होंने कहा।
दरअसल, यूके और कुछ अमेरिकी राज्यों में विधायकों के पास है प्रतिबंध लगा दिया गैर-सहमति वाले, डीपफेक एआई पोर्न पर। लेकिन ग्रेट कैस्केडिया भूकंप और बालेंसीगा पोप जैसे मीम आंतरिक रूप से हानिकारक नहीं हैं और जल्द ही किसी भी समय नियामक रेलिंग का सामना नहीं करेंगे।
एआई-जेनरेट की गई छवियां अभी भी सही नहीं हैं। सड़क के संकेत ऐसे दिखते हैं जैसे वे सिमिलिश में लिखे गए हों, और प्राकृतिक दुनिया में आपको जितने हाथ मिलेंगे उससे कहीं अधिक तीन-अंगुलियों वाले हाथ हैं। आमतौर पर, यदि आप एआई-जेनरेट की गई छवि पर पर्याप्त रूप से देखते हैं, तो आप कुछ अजीब विपथन पा सकते हैं, पिक्सेल का एक समूह जो आपको बताता है कि कुछ गलत है। लेकिन वास्तविक या कल्पना में अंतर करना कठिन होता जा रहा है – और आगे क्या होगा इसकी कल्पना करना कठिन है।