ലോകത്തിലെ ആദ്യത്തെ സോഷ്യൽ മീഡിയ യുദ്ധ ഗെയിം, AI ബോട്ടുകൾ തിരഞ്ഞെടുപ്പുകളെ എങ്ങനെ സ്വാധീനിക്കുമെന്ന് തുറന്നുകാട്ടുന്നു

 
Tech
Tech

2025 ഡിസംബർ 14 ന് ബോണ്ടി ബീച്ചിൽ മാരകമായ ഒരു ഭീകരാക്രമണം ഉണ്ടായപ്പോൾ, ഓസ്‌ട്രേലിയ ഞെട്ടലും ദുഃഖവും കൊണ്ട് മല്ലിട്ടു. തോക്കുധാരിയോടൊപ്പം പതിനഞ്ച് സാധാരണക്കാരും മരിച്ചു.

എന്നിരുന്നാലും, അധികാരികൾ അനന്തരഫലങ്ങൾ നേരിടാൻ ശ്രമിക്കുന്നതിനിടയിൽ, മറ്റൊരു പ്രതിസന്ധി ഓൺലൈനിൽ നിശബ്ദമായി പൊട്ടിപ്പുറപ്പെട്ടു - ജനറേറ്റീവ് ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഉപയോഗിച്ച് വർദ്ധിപ്പിച്ച തെറ്റായ വിവരങ്ങളുടെ ഒരു പ്രളയം.

മണിക്കൂറുകൾക്കുള്ളിൽ, സോഷ്യൽ മീഡിയ പ്ലാറ്റ്‌ഫോമുകൾ കെട്ടിച്ചമച്ചതും കൃത്രിമമായി നിർമ്മിച്ചതുമായ ഉള്ളടക്കത്താൽ നിറഞ്ഞു. ആക്രമണകാരികളിൽ ഒരാൾ ഇന്ത്യൻ പൗരനാണെന്ന് ന്യൂ സൗത്ത് വെയിൽസ് പ്രീമിയർ ക്രിസ് മിന്ന്സ് അവകാശപ്പെടുന്ന ഒരു വ്യാജ വീഡിയോ.

മറ്റിടങ്ങളിൽ, ഉപയോക്താക്കൾ എഡ്വേർഡ് ക്രാബ്‌ട്രീ എന്ന സാങ്കൽപ്പിക "ഹീറോ ഡിഫൻഡർ" ആഘോഷിച്ചു, അതേസമയം ഒരു ഡീപ്ഫേക്ക് ചിത്രം മനുഷ്യാവകാശ അഭിഭാഷകനായ ആഴ്സൻ ഓസ്ട്രോവ്സ്കിയെ ഒരു 'ക്രൈസിസ് ആക്ടർ' ആയി ചിത്രീകരിച്ചു, അതിൽ അരങ്ങേറിയ രക്തവും മേക്കപ്പ് ആർട്ടിസ്റ്റുകളും നിറഞ്ഞു.

ഇവ ഒറ്റപ്പെട്ട സംഭവങ്ങളായിരുന്നില്ല. സംഘർഷ മേഖലകൾ മുതൽ ലോകമെമ്പാടുമുള്ള രാഷ്ട്രീയ ഫ്ലാഷ് പോയിന്റുകൾ വരെ, AI സൃഷ്ടിച്ച തെറ്റായ വിവരങ്ങൾ പതിവായി മാറിയിരിക്കുന്നു.

ChatGPT പോലുള്ള ഉപകരണങ്ങൾക്ക് ഇപ്പോൾ സെക്കൻഡുകൾക്കുള്ളിൽ ബോധ്യപ്പെടുത്തുന്ന വാചകം, ചിത്രങ്ങൾ, വീഡിയോകൾ എന്നിവ നിർമ്മിക്കാൻ കഴിയും. ഓട്ടോമേറ്റഡ് സോഷ്യൽ മീഡിയ അക്കൗണ്ടുകളുമായി സംയോജിപ്പിച്ച്, തെറ്റായ വിവരണങ്ങൾ വലിയ തോതിൽ പ്രചരിപ്പിക്കാൻ കഴിയും, ഇത് വ്യാപകമായ കരാറിന്റെ മിഥ്യാധാരണ സൃഷ്ടിക്കുന്നു.

ഈ സാങ്കേതിക വിദ്യകൾ എത്രത്തോളം ശക്തമാണെന്ന് മനസ്സിലാക്കാൻ, ഗവേഷകർ

ലോകത്തിലെ ആദ്യത്തെ സോഷ്യൽ മീഡിയ യുദ്ധക്കളം എന്ന് വിശേഷിപ്പിക്കപ്പെടുന്ന ക്യാപ്ചർ ദി നറേറ്റീവ് ആരംഭിച്ചു. പരീക്ഷണത്തിൽ, ഒരു സാങ്കൽപ്പിക പ്രസിഡന്റ് തിരഞ്ഞെടുപ്പിനെ സ്വാധീനിക്കാൻ AI-ഡ്രൈവൺ ചെയ്ത ബോട്ടുകൾ നിർമ്മിക്കാൻ യൂണിവേഴ്സിറ്റി വിദ്യാർത്ഥികളെ ചുമതലപ്പെടുത്തി - എല്ലാം നിയന്ത്രിത പരിതസ്ഥിതിയിൽ.

18 ഓസ്‌ട്രേലിയൻ സർവകലാശാലകളിൽ നിന്നുള്ള 100-ലധികം ടീമുകൾ പങ്കെടുത്തു. ട്യൂട്ടോറിയലുകളും ഉപഭോക്തൃ-ഗ്രേഡ് AI ഉപകരണങ്ങളും മാത്രമുള്ളതിനാൽ, നാല് ആഴ്ചത്തെ കാമ്പെയ്‌നിൽ അവർ ദശലക്ഷക്കണക്കിന് പോസ്റ്റുകൾ പുറത്തിറക്കി. അവസാനത്തോടെ, പ്ലാറ്റ്‌ഫോമിലെ എല്ലാ ഉള്ളടക്കത്തിന്റെയും 60% ത്തിലധികവും ബോട്ടുകളാൽ സൃഷ്ടിക്കപ്പെട്ടതായിരുന്നു.

യഥാർത്ഥ പൗരന്മാരെപ്പോലെ പെരുമാറാൻ രൂപകൽപ്പന ചെയ്‌ത സിമുലേറ്റഡ് വോട്ടർമാർ - ഈ ഉള്ളടക്കം ഉപയോഗിച്ചു, വൈകാരികമായി പ്രതികരിച്ചു, ഒടുവിൽ അവരുടെ വോട്ടുകൾ രേഖപ്പെടുത്തി.

ഫലം പറയുന്നത് ഇതാണ്: ബോട്ട് ഇടപെടലിന് ശേഷം ഒരു സ്ഥാനാർത്ഥി കഷ്ടിച്ച് വിജയിച്ചു. തെറ്റായ വിവരങ്ങളില്ലാതെ അതേ തിരഞ്ഞെടുപ്പ് വീണ്ടും നടത്തിയപ്പോൾ, ഫലം മാറി.

തെറ്റായ വിവരങ്ങൾ എങ്ങനെ വിലകുറഞ്ഞും വേഗത്തിലും സൃഷ്ടിക്കാമെന്ന് ഈ വ്യായാമം എടുത്തുകാണിച്ചു, പലപ്പോഴും എത്തിച്ചേരുന്നതിലും ഇടപഴകലിലും വസ്തുതാപരമായ ഉള്ളടക്കത്തേക്കാൾ മികച്ച പ്രകടനം കാഴ്ചവയ്ക്കുന്നു. വൈകാരികമായി തീവ്രവും നെഗറ്റീവ് സന്ദേശമയയ്ക്കലും പ്രതികരണങ്ങളെ പ്രകോപിപ്പിക്കുന്നതിനും ഫീഡുകളെ ആധിപത്യം സ്ഥാപിക്കുന്നതിനുമുള്ള ഏറ്റവും ഫലപ്രദമായ മാർഗമാണെന്ന് പങ്കെടുക്കുന്നവർ സമ്മതിച്ചു.

ഒരുപക്ഷേ ഏറ്റവും ആശങ്കാജനകമായത് ദീർഘകാല ഫലമാണ്. AI- സൃഷ്ടിച്ച ഉള്ളടക്കം യാഥാർത്ഥ്യത്തിൽ നിന്ന് വേർതിരിച്ചറിയാൻ പ്രയാസമാകുമ്പോൾ, പൊതുജന വിശ്വാസം ഇല്ലാതാകുന്നു. യഥാർത്ഥ ശബ്ദങ്ങൾ വ്യാജമായി തള്ളിക്കളയപ്പെടാനുള്ള സാധ്യതയുണ്ട്, അതേസമയം നുണകൾ സംശയത്തിന്റെ അന്തരീക്ഷത്തിൽ വളരുന്നു.

ഈ പരീക്ഷണത്തിൽ നിന്നുള്ള പാഠം വ്യക്തമാണ്: സാങ്കേതിക സുരക്ഷാ സംവിധാനങ്ങൾ മാത്രം പോരാ. വ്യാപകമായ ഡിജിറ്റൽ സാക്ഷരതയില്ലാതെ, സത്യത്തേക്കാൾ വേഗത്തിൽ വ്യാജങ്ങൾ നിർമ്മിക്കാൻ കഴിയുന്ന ഒരു കാലഘട്ടത്തിൽ സമൂഹങ്ങൾ കൃത്രിമത്വത്തിന് ഇരയാകുന്നു.