ChatGPT ക്കെതിരെ കൊലപാതകക്കുറ്റം ചുമത്താമോ? FSU കേസ് AI ബാധ്യതാ ചർച്ചയ്ക്ക് തുടക്കമിട്ടു

 
AI
AI
OpenAI യുടെ ChatGPT പോലുള്ള AI സിസ്റ്റങ്ങൾക്ക് യഥാർത്ഥ അക്രമം ഉൾപ്പെടുന്ന കേസുകളിൽ എപ്പോഴെങ്കിലും ക്രിമിനൽ ഉത്തരവാദിത്തം നേരിടേണ്ടിവരുമോ എന്ന ചോദ്യങ്ങൾ ഉയർന്നതിനെത്തുടർന്ന് അമേരിക്കയിൽ ഞെട്ടിക്കുന്ന ഒരു നിയമ ചർച്ച ഉയർന്നുവന്നിട്ടുണ്ട്.
ഫ്ലോറിഡ സ്റ്റേറ്റ് യൂണിവേഴ്സിറ്റി (FSU) വെടിവയ്പ്പ് കേസിനെത്തുടർന്ന് ചർച്ച ശക്തമായി, AI ഉപകരണങ്ങൾ ഉൾപ്പെട്ടതായി ആരോപിക്കപ്പെടുന്ന ഓൺലൈൻ സംഭാഷണങ്ങൾ പ്രതിയുടെ ഡിജിറ്റൽ പ്രവർത്തനത്തെക്കുറിച്ചുള്ള വിശാലമായ അന്വേഷണത്തിന്റെ ഭാഗമായി. AI- സൃഷ്ടിച്ച പ്രതികരണങ്ങൾ ദോഷകരമായ പ്രവർത്തനങ്ങളുമായി ബന്ധിപ്പിച്ചാൽ കൃത്രിമ ഇന്റലിജൻസ് കമ്പനികൾക്ക് എപ്പോഴെങ്കിലും ബാധ്യത നേരിടേണ്ടിവരുമോ എന്ന് നിയമ വിദഗ്ധരും സാങ്കേതിക വിശകലന വിദഗ്ധരും ഇപ്പോൾ ചർച്ച ചെയ്യുന്നു.
നിലവിലെ യുഎസ് നിയമപ്രകാരം, AI സിസ്റ്റങ്ങൾ നിയമപരമായ വ്യക്തികളായി അംഗീകരിക്കപ്പെടാത്തതിനാൽ കൊലപാതകം പോലുള്ള കുറ്റകൃത്യങ്ങൾക്ക് കുറ്റം ചുമത്താൻ കഴിയില്ല. അശ്രദ്ധ, ഉദ്ദേശ്യം അല്ലെങ്കിൽ ദുരുപയോഗം എന്നിവയുടെ തെളിവുകൾ അനുസരിച്ച് ക്രിമിനൽ ഉത്തരവാദിത്തം സംശയിക്കപ്പെടുന്നവർ, ഡെവലപ്പർമാർ അല്ലെങ്കിൽ സംഘടനകൾ ഉൾപ്പെടെയുള്ള മനുഷ്യ അഭിനേതാക്കളുടെ മേലാണ്.
എന്നിരുന്നാലും, സെൻസിറ്റീവ് വിഷയങ്ങൾ, മാനസികാരോഗ്യ പ്രതിസന്ധികൾ, അക്രമാസക്തമായ ആശയങ്ങൾ, ദോഷകരമായ നിർദ്ദേശങ്ങൾ എന്നിവ ജനറേറ്റീവ് AI പ്ലാറ്റ്‌ഫോമുകൾ എങ്ങനെ കൈകാര്യം ചെയ്യുന്നു എന്നതിനെക്കുറിച്ചുള്ള ആശങ്കകൾ ഈ കേസ് വീണ്ടും ജ്വലിപ്പിച്ചു. AI കൂടുതൽ പുരോഗമിക്കുകയും ദൈനംദിന ജീവിതത്തിൽ ആഴത്തിൽ സംയോജിപ്പിക്കപ്പെടുകയും ചെയ്യുമ്പോൾ, അത്തരം സംവിധാനങ്ങൾ വികസിപ്പിക്കുന്ന ടെക് കമ്പനികൾക്കായി ഗവൺമെന്റുകൾ ക്രമേണ കർശനമായ ഉത്തരവാദിത്ത നിയമങ്ങൾ അവതരിപ്പിച്ചേക്കാമെന്ന് വിമർശകർ വാദിക്കുന്നു.
ജനറേറ്റീവ് ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ യുഗത്തിൽ AI ഉത്തരവാദിത്തം, പ്ലാറ്റ്‌ഫോം മോഡറേഷൻ, കോർപ്പറേറ്റ് ഉത്തരവാദിത്തം എന്നിവയുടെ പരിധികൾ നിർവചിക്കുന്നതിൽ ഈ കേസ് ഒരു നാഴികക്കല്ലായി മാറുമെന്ന് നിയമ പണ്ഡിതന്മാർ പറയുന്നു.