AI മോഡലുകൾ മനുഷ്യരാശിക്ക് അസ്തിത്വ ഭീഷണി ഉയർത്തുന്നില്ല, ആയിരക്കണക്കിന് പരീക്ഷണങ്ങൾ നടത്തിയ ഗവേഷകർ പറയുന്നു
AI അല്ലെങ്കിൽ ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് എന്നത് കഴിഞ്ഞ കുറച്ച് വർഷങ്ങളായി സാങ്കേതിക വിദ്യയിലെ പ്രധാന വാക്കാണ്. ചിലർ ഇത് ദുരുപയോഗം ചെയ്യാമെന്ന് വാദിക്കുന്നു, മറ്റുള്ളവർ ഇത് വൈദ്യശാസ്ത്രം മുതൽ ശാസ്ത്രം വരെ ക്രിയേറ്റീവ് വ്യവസായങ്ങൾ വരെ വിവിധ മേഖലകൾക്ക് ഒരു അനുഗ്രഹമായി കരുതുന്നു. AI യഥാർത്ഥത്തിൽ മനുഷ്യരാശിക്ക് ഒരു അസ്തിത്വ ഭീഷണി ഉയർത്തുന്നുണ്ടോ? അല്ല, ChatGPT പോലെയുള്ള AI ആപ്പുകളുടെ ഹൃദയഭാഗത്തുള്ള വലിയ ഭാഷാ മോഡലുകൾ അല്ലെങ്കിൽ LLM-കളിൽ ആയിരക്കണക്കിന് പരീക്ഷണങ്ങൾ നടത്തിയ ഒരു വലിയ പഠനമനുസരിച്ച്.
എങ്ങനെയാണ് ഗവേഷണം നടത്തിയത്
യുകെയിലെ ബാത്ത് യൂണിവേഴ്സിറ്റി, ജർമ്മനിയിലെ ഡാർംസ്റ്റാഡ് ടെക്നിക്കൽ യൂണിവേഴ്സിറ്റി എന്നിവിടങ്ങളിൽ നിന്നുള്ള ഗവേഷണ സംഘം ഈ പരീക്ഷണങ്ങളിലൂടെ തെളിയിച്ചു, നിർദ്ദേശങ്ങൾ പാലിക്കാനുള്ള LLM-കളുടെ കഴിവ്, മെമ്മറി, ഭാഷാപരമായ പ്രാവീണ്യം എന്നിവയുടെ സംയോജനം LLM-കൾ പ്രകടിപ്പിക്കുന്ന കഴിവുകൾക്കും പരിമിതികൾക്കും കാരണമാകും.
മോഡലുകൾ ഇതുവരെ കണ്ടിട്ടില്ലാത്ത ടാസ്ക്കുകൾ പൂർത്തിയാക്കാനുള്ള LLM-കളുടെ കഴിവ് പരിശോധിക്കുന്നതിനാണ് പരീക്ഷണങ്ങൾ ലക്ഷ്യമിടുന്നത്. അവയെ ഉയർന്നുവരുന്ന കഴിവുകൾ എന്ന് വിളിക്കുന്നു.
എൽഎൽഎമ്മുകൾക്ക് സാമൂഹിക സാഹചര്യങ്ങളെക്കുറിച്ചുള്ള ചോദ്യങ്ങൾക്ക് വ്യക്തമായ പരിശീലനമോ പ്രോഗ്രാമോ ചെയ്യാതെ ഉത്തരം നൽകാൻ കഴിയുമെന്ന് മുൻകാല ഗവേഷണങ്ങളിൽ കണ്ടിട്ടുണ്ട്.
ഈ മാതൃകകൾ സാമൂഹിക സാഹചര്യങ്ങളെക്കുറിച്ച് 'അറിയുന്നതിൻ്റെ' ഫലമായാണ് ഇത് കരുതിയത്. എന്നാൽ, "ഇൻ-കണ്ടെക്സ്റ്റ് ലേണിംഗ്' അല്ലെങ്കിൽ ഐസിഎൽ എന്നറിയപ്പെടുന്ന ഏതാനും ഉദാഹരണങ്ങളെ അടിസ്ഥാനമാക്കി ടാസ്ക്കുകൾ പൂർത്തിയാക്കാനുള്ള അറിയപ്പെടുന്ന കഴിവ് മോഡലുകൾ ഉപയോഗിച്ചതിൻ്റെ ഫലമാണിതെന്ന് ഗവേഷകർ തെളിയിച്ചു," ബാത്ത് യൂണിവേഴ്സിറ്റി ഒരു പ്രസ്താവനയിൽ പറഞ്ഞു. .
LLM-കൾക്ക് നിർദ്ദേശങ്ങൾ പാലിക്കാനുള്ള "ഉപരിതലമായ കഴിവ്" ഉണ്ടെങ്കിലും മികച്ച ഭാഷാ വൈദഗ്ദ്ധ്യം ഉണ്ടായിരിക്കാം, അവർക്ക് ഇപ്പോഴും "വ്യക്തമായ നിർദ്ദേശങ്ങളില്ലാതെ പുതിയ കഴിവുകൾ നേടാനുള്ള" കഴിവില്ല എന്നതാണ് പഠനം കണ്ടെത്തിയത്.
ഇതിനർത്ഥം അവ അന്തർലീനമായി നിയന്ത്രിക്കാവുന്നതും പ്രവചിക്കാവുന്നതും സുരക്ഷിതവുമാണ്," LLM-കൾ മനുഷ്യരാശിക്ക് ഒരു അസ്തിത്വ ഭീഷണിയല്ല എന്ന നിഗമനത്തിലേക്ക് നയിച്ചതായി റിലീസ് പറഞ്ഞു.
സാങ്കേതിക വിദ്യ ഇപ്പോഴും ദുരുപയോഗം ചെയ്യപ്പെടാമെങ്കിലും, സുരക്ഷാ പ്രശ്നങ്ങളില്ലാതെ എൽഎൽഎമ്മുകൾ പരിശീലിപ്പിച്ചുകൊണ്ടിരിക്കുന്നതായി ഗവേഷണ സംഘം നിഗമനം ചെയ്തു,” അതിൽ പറയുന്നു.
ഭാവിയിൽ, ഈ AI മോഡലുകൾക്ക് കൂടുതൽ സങ്കീർണ്ണമായ ഭാഷ 'സംസാരിക്കാനും' എഴുതാനും കഴിയുമെങ്കിലും കൂടുതൽ വിശദമായ നിർദ്ദേശങ്ങൾ പാലിക്കാൻ കഴിയുമെങ്കിലും, "സങ്കീർണ്ണമായ യുക്തിസഹമായ കഴിവുകൾ നേടാനുള്ള സാധ്യത വളരെ കുറവാണ്," ഗവേഷകർ നിഗമനം ചെയ്തു.
"ഇത്തരം AI മനുഷ്യരാശിക്ക് ഭീഷണിയാണെന്ന നിലവിലുള്ള ആഖ്യാനം ഈ സാങ്കേതികവിദ്യകളുടെ വ്യാപകമായ ദത്തെടുക്കലിനെയും വികാസത്തെയും തടയുന്നു, മാത്രമല്ല നമ്മുടെ ശ്രദ്ധ ആവശ്യമുള്ള യഥാർത്ഥ പ്രശ്നങ്ങളിൽ നിന്ന് ശ്രദ്ധ തിരിക്കുകയും ചെയ്യുന്നു,” യൂണിവേഴ്സിറ്റിയിലെ കമ്പ്യൂട്ടർ ശാസ്ത്രജ്ഞൻ ഡോ.ഹരീഷ് തയാർ മദാബുഷി പറഞ്ഞു. ബാത്ത്, പഠനത്തിൻ്റെ സഹ-രചയിതാവ്.
"ഒരു മോഡൽ പോയി തീർത്തും അപ്രതീക്ഷിതവും നൂതനവും അപകടകരവുമായ എന്തെങ്കിലും ചെയ്യുമെന്ന ഭയം സാധുതയുള്ളതല്ലെന്ന് ഞങ്ങളുടെ പഠനം കാണിക്കുന്നു," അദ്ദേഹം പറഞ്ഞതായി പ്രസ്താവനയിൽ പറയുന്നു.
"വ്യാജ വാർത്തകളുടെ സൃഷ്ടിയും വഞ്ചനയുടെ ഉയർന്ന അപകടസാധ്യതയും പോലുള്ള AI യുടെ ദുരുപയോഗത്തിനുള്ള നിലവിലുള്ള സാധ്യതകൾ പരിഹരിക്കേണ്ടത് പ്രധാനമാണെങ്കിലും, അസ്തിത്വ ഭീഷണികളെ അടിസ്ഥാനമാക്കിയുള്ള നിയന്ത്രണങ്ങൾ നടപ്പിലാക്കുന്നത് അകാലമായിരിക്കും," അദ്ദേഹം പറഞ്ഞു.
തിങ്കളാഴ്ച (ഓഗസ്റ്റ് 12) നടന്ന അസോസിയേഷൻ ഫോർ കമ്പ്യൂട്ടേഷണൽ ലിംഗ്വിസ്റ്റിക്സിൻ്റെ 62-ാമത് വാർഷിക യോഗത്തിൻ്റെ നടപടികളുടെ ഭാഗമായാണ് പഠനം പ്രസിദ്ധീകരിച്ചത്.