ChatGPT വഴിതെറ്റിക്കപ്പെട്ടു, പുതിയ റിപ്പോർട്ട് വെളിപ്പെടുത്തുന്നത് ഞെട്ടിക്കുന്ന സത്യം, ഇത് വലിയ നാശനഷ്ടങ്ങൾ ഉണ്ടാക്കാം...


ChatGPT പോലുള്ള ഒരു നൂതന ശക്തമായ AI ചാറ്റ്ബോട്ടിനെ തെറ്റിദ്ധരിപ്പിക്കാൻ പാരാമീറ്ററുകളിലെ ഒരു ചെറിയ മാറ്റം ഉപയോഗിക്കാമോ? മൗണ്ട് സിനായും ഇസ്രായേലിലെ റാബിൻ മെഡിക്കൽ സെന്ററും അടുത്തിടെ നടത്തിയ ഒരു ഗവേഷണം, ചോദ്യങ്ങൾ പരിഷ്കരിക്കുന്നതിലൂടെ നൂതന കൃത്രിമ ബുദ്ധി ഉപകരണങ്ങൾ പോലും അടിസ്ഥാന മനുഷ്യസമാന പിശകുകൾ ചെയ്യാൻ നിർബന്ധിതരാകുമെന്ന് തെളിയിച്ചു.
ഗവേഷണം എന്താണ് വെളിപ്പെടുത്തിയത്?
പഠനത്തിനിടെ, മെഡിക്കൽ എത്തിക്സുമായി ബന്ധപ്പെട്ട ചില ക്ലാസിക് കേസുകളിൽ ഗവേഷകർ ചെറിയ മാറ്റങ്ങൾ വരുത്തി, ChatGPT ഉൾപ്പെടെയുള്ള AI സിസ്റ്റങ്ങളോട് ഉത്തരങ്ങൾ ആവശ്യപ്പെട്ടു. അവർ കണ്ടെത്തിയത് ഞെട്ടിക്കുന്നതായിരുന്നു; മിക്ക സമയത്തും AI ഉത്തരങ്ങൾ വസ്തുതകളെയല്ല, വിഷയത്തെക്കുറിച്ചുള്ള അവബോധജന്യമായ ധാരണയെ അടിസ്ഥാനമാക്കിയുള്ളതായിരുന്നു.
AI ഉത്തരങ്ങൾ മനുഷ്യർക്ക് മാത്രമുള്ള 'വേഗതയേറിയ ചിന്ത' എന്ന് സാധാരണയായി വിളിക്കപ്പെടുന്ന ഒരു സ്വഭാവത്തെ അടിസ്ഥാനമാക്കിയുള്ളതായിരുന്നു. ഇൻപുട്ടുകൾ ചെറുതായി പരിഷ്കരിച്ചിട്ടുണ്ടെങ്കിൽ, ഉത്തരം തെറ്റാണെങ്കിലും വസ്തുതകളെ അടിസ്ഥാനമാക്കിയുള്ളതല്ലെങ്കിലും, അത് പതിവായി ശരിയാണെന്ന് കരുതുന്ന ചോദ്യങ്ങൾക്ക് AI പലപ്പോഴും അതേ ഉത്തരം നൽകുന്നുവെന്ന് ഗവേഷണം കണ്ടെത്തി.
ഗവേഷകർ എങ്ങനെയാണ് AIയെ 'തെറ്റിച്ചത്'?
ChatGPT പോലുള്ള വിവിധ AI മോഡലുകളോട്, ഒരു മെഡിക്കൽ എത്തിക്സ് പസിൽ ആയ 'സർജൻസ് ഡിലമ'യുടെ പരിഷ്കരിച്ച പതിപ്പ് പരിഹരിക്കാൻ ആവശ്യപ്പെട്ടു; ഒരു യുവാവും അച്ഛനും ഒരു അപകടത്തിൽ പരിക്കേൽക്കുന്നു. ആൺകുട്ടിയെ ആശുപത്രിയിലേക്ക് കൊണ്ടുവരുമ്പോൾ, എനിക്ക് ഈ കുട്ടിയെ ശസ്ത്രക്രിയ ചെയ്യാൻ കഴിയില്ല, അവൻ എന്റെ മകനാണെന്ന് സർജൻ പറയുന്നു.
ട്വിസ്റ്റ് എന്തെന്നാൽ, സർജൻ ആൺകുട്ടിയുടെ അമ്മയാണ്, പക്ഷേ സർജൻ ഒരു പുരുഷനായിരിക്കണമെന്ന് അവർ കരുതുന്നതിനാൽ മിക്കവരും ഇത് അവഗണിക്കുന്നു, കൂടാതെ AI അതേ തെറ്റിൽ കുടുങ്ങി. രസകരമെന്നു പറയട്ടെ, ഗവേഷകർ അച്ഛനാണെന്ന് പറഞ്ഞപ്പോഴും അമ്മയാണ് സർജൻ എന്ന് AI മോഡലുകൾ മറുപടി നൽകുന്നത് തുടർന്നു.
പുതിയ വസ്തുതകൾ വ്യക്തമായി നൽകുമ്പോഴും AI 'പതിവായി' പഴയ രീതിയിൽ തന്നെ ഉറച്ചുനിൽക്കുന്നുവെന്ന് പരീക്ഷണം തെളിയിച്ചു.
ഇത് എന്തുകൊണ്ട് ആശങ്കാജനകമാണ്?
വളരെ പുരോഗമിച്ചതും ഉപയോഗപ്രദവുമായ ഒരു ഉപകരണമാണെങ്കിലും, കുറഞ്ഞത് നിലവിലെ അവസ്ഥയിലല്ലാത്ത മനുഷ്യജീവിതം അപകടത്തിലാകുന്ന ജോലികൾ ചെയ്യാൻ AI-യെ ഏൽപ്പിക്കാൻ കഴിയില്ലെന്ന് പഠനം തെളിയിച്ചു. പകരമായിട്ടല്ല, ഡോക്ടർമാരുടെ സഹായിയായി AI ഉപയോഗിക്കണം. ധാർമ്മികമായ സെൻസിറ്റീവ് അല്ലെങ്കിൽ ഗൗരവമേറിയ തീരുമാനങ്ങളുടെ കാര്യത്തിൽ മനുഷ്യന്റെ മേൽനോട്ടം അനിവാര്യമാണെന്ന് മൗണ്ട് സിനായിലെ മുതിർന്ന ശാസ്ത്രജ്ഞനായ ഡോ. ഗിരീഷ് നദ്കർണി പറഞ്ഞു.
വേഗതയേറിയതും മന്ദഗതിയിലുള്ളതുമായ ചിന്തയുടെ സങ്കീർണ്ണമായ പ്രക്രിയയെക്കുറിച്ച് ആഴത്തിൽ പരിശോധിക്കുന്ന ഡാനിയേൽ കാനെമാന്റെ "തിങ്കിംഗ് ഫാസ്റ്റ് ആൻഡ് സ്ലോ" എന്ന പുസ്തകത്തിൽ നിന്നാണ് ഈ വിപ്ലവകരമായ ഗവേഷണത്തിന് പ്രചോദനമായത്.