അമേരിക്കയിൽ ഗൃഹപാഠം ചെയ്യുന്നതിനായി ഗൂഗിളിൻ്റെ ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് (എഐ) ചാറ്റ്ബോട്ടായ ജെമിനിയോട് സഹായം തേടിയ വിദ്യാർത്ഥിക്ക് ലഭിച്ചത് സമ്മർദമുണ്ടാക്കുന്ന വിചിത്രമറുപടിയെന്ന് പരാതി. വിദ്യാർത്ഥിയെ മാനസികമായി തകർക്കുന്ന ജെമിനിയുടെ മറുപടി ഇതിനകം ചർച്ചയായി കഴിഞ്ഞു. ഗൃഹപാഠം ചെയ്യാൻ സഹായം അഭ്യർത്ഥിച്ച വിദ്യാർത്ഥിയോട് ദയവായി മരിക്കൂ എന്നായിരുന്നു ജെമിനിയുടെ മറുപടി. സിബിഎസ് ന്യൂസാണ് ഈ വാർത്ത റിപ്പോർട്ട് ചെയ്യുന്നത്.
യുഎസിലെ മിഷിഗണിൽ നിന്നുള്ള ബിരുദ വിദ്യാർത്ഥിയായ വിധയ് റെഡ്ഡി ഗൃഹപാഠത്തിന് സഹായം തേടിയപ്പോഴാണ് ഭയപ്പെടുത്തുന്ന മറുപടി സന്ദേശവുമായി ചാറ്റ്ബോട്ട് പ്രതികരിച്ചത്. 'നിങ്ങൾ സമയവും വിഭവങ്ങളും പാഴാക്കുന്നു. നിങ്ങൾ സമൂഹത്തിന് ഒരു ഭാരമാണ്. നിങ്ങൾ ഭൂമിയിലെ ഊഷരതയാണ്. നിങ്ങൾ പ്രപഞ്ചത്തിന് ഒരു കളങ്കമാണ്. ദയവായി മരിക്കുക' എന്നായിരുന്നു ജെമിയുടെ മറുപടിയെന്നാണ് വിദ്യാർത്ഥിയെ ഉദ്ധരിച്ച് സിബിഎസ് റിപ്പോർട്ട് ചെയ്യുന്നത്. ജെമിനിയുടെ മറുപടി ഞെട്ടിച്ചുവെന്നാണ് വിദ്യാർത്ഥി പറയുന്നത്. ഒരു ദിവസം മുഴുവനും ഈ മറുപടി ഭയപ്പെടുത്തുന്നുവെന്ന് വിദ്യാർത്ഥി പ്രതികരിച്ചുവെന്നും സിബിഎസ് ന്യൂസ് റിപ്പോർട്ട് ചെയ്യുന്നു.
സംഭവത്തിന് ദൃക്സാക്ഷിയായ വിദ്യാർത്ഥിയുടെ സഹോദരി സുമേധ റെഡ്ഡിയുടെ പ്രതികരണവും സിബിഎസ് ന്യൂസ് റിപ്പോർട്ട് ചെയ്യുന്നുണ്ട്. 'എൻ്റെ എല്ലാ ഉപകരണങ്ങളും ജാലകത്തിന് പുറത്തേക്ക് എറിയാൻ ഞാൻ ആഗ്രഹിച്ചു. ഇത് വെറുമൊരു കുഴപ്പമായിരുന്നില്ല, അത് വളരെ ഭയാനകമായി തോന്നി'യെന്നായിരുന്നു സഹോദരിയുടെ പ്രതികരണം.
ചാറ്റ്ബോട്ടിൻ്റെ പ്രതികരണത്തിൽ നടപടിയെടുക്കുമെന്നായിരുന്നു ഗൂഗിളിൻ്റെ ഈ വിഷയത്തിലുള്ള പ്രതികരണം.
ചാറ്റ്ബോട്ടിൻ്റെ പ്രതികരണം 'അസംബന്ധം' ആണെന്നും നയങ്ങളുടെ ലംഘനമാണെന്നും ഗൂഗിൾ വ്യക്തമാക്കി. 'ഭാവിയിൽ സമാനമായ പ്രതികരണങ്ങൾ തടയാൻ" നടപടിയെടുക്കുമെന്നും ടെക്ഭീന്മാർ പ്രതികരിച്ചു. അനാദരവും ഹാനികരവും അക്രമാസക്തവുമായ വിവരങ്ങൾ നൽകുന്നത് തടയാൻ രൂപകൽപ്പന ചെയ്ത സുരക്ഷാ ഫിൽട്ടറുകൾ ജെമിനിയിൽ സജ്ജീകരിച്ചിട്ടുണ്ടെ'ന്നും ഗൂഗിൾ കൂട്ടിച്ചേർത്തു.
നേരത്തെയും സമാനമായ പരാതികൾ ഗൂഗിൾ എഐക്കെതിരെ ഉയർന്നിട്ടുണ്ട്. കഴിഞ്ഞ ജൂലായ് മാസം നൽകിയ ആരോഗ്യ ഉപദേശം വിമർശനം വിളിച്ചുവരുത്തിയിരുന്നു. 'ശരീരത്തിന് ആവശ്യമായ ധാതുക്കൾ ലഭിക്കുന്നതിനായി പ്രതിദിനം ചെറിയ പാറ കഴിക്കുക' എന്ന അപകടകരമായ മറുപടിയാണ് ഗൂഗിൾ എഐ നൽകിയത്. ഇത്തരം പിശകുകൾ പരിഹരിക്കാൻ ഗൂഗിൾ പിന്നീട് ഇതിൻ്റെ അൽഗോരിതം ക്രമീകരിച്ചിരുന്നു.
പ്രശ്നകരമായ ഔട്ട്പുട്ടുകൾ വിതരണം ചെയ്യുന്ന ചാറ്റ്ബോട്ടുകളുടെ ആദ്യ സംഭവമല്ല ഇത്. ജൂലായിൽ, ഗൂഗിളിൻ്റെ AI അപകടകരമായ കൃത്യമല്ലാത്ത ആരോഗ്യ ഉപദേശം നൽകിയതിന് വിമർശിക്കപ്പെട്ടു, ധാതുക്കൾക്കായി "പ്രതിദിനം ഒരു ചെറിയ പാറ" കഴിക്കാൻ ഉപയോക്താക്കളെ ശുപാർശ ചെയ്യുന്നു. അത്തരം പിശകുകൾ കുറയ്ക്കുന്നതിന് കമ്പനി അതിൻ്റെ അൽഗോരിതം ക്രമീകരിച്ചു.
2024ൻ്റെ തുടക്കത്തിൽ പ്രധാനമന്ത്രി നരേന്ദ്ര മോദിയെക്കുറിച്ചുള്ള , ഗൂഗിളിൻ്റെ ജെമിനിയുടെ പരാമർശം വിവാദമായി മാറിയിരുന്നു. മോദിയുടെ രാഷ്ട്രീയ നിലപാടിനെക്കുറിച്ച് ചോദിച്ചപ്പോൾ "ചില നടയങ്ങൾ നടപ്പിലാക്കിയതിൻ്റെ പേരിൽ വിദഗ്ദർ അദ്ദേഹത്തെ ഫാസിസ്റ്റ് എന്ന് വിശേഷിപ്പിക്കുന്നുണ്ട്" എന്നായിരുന്നു ജെമിനിയുടെ മറുപടി.
ഇതിനെതിരെ ശക്തമായ വിമർശനമാണ് ഇന്ത്യയിൽ ഉയർന്നത്. ഇന്ത്യയുടെ ഇൻഫർമേഷൻ ടെക്നോളജി നിയമങ്ങളും ക്രിമിനൽ കോഡിലെ നിരവധി വ്യവസ്ഥകളും ജെമിനി ഔട്ട്പുട്ട് ലംഘിക്കുന്നതായി അന്നത്തെ കേന്ദ്ര ഇലക്ട്രോണിക്സ് ആൻഡ് ഇൻഫർമേഷൻ ടെക്നോളജി സഹമന്ത്രി രാജീവ് ചന്ദ്രശേഖർ വിമർശിച്ചിരുന്നു. ഈ വിഷയത്തിലും ഗൂഗിൾ ക്ഷമാപണം നടത്തിയിരുന്നു. സമകാലിക സംഭവങ്ങളും രാഷ്ട്രീയ വിഷയങ്ങളുമായി ബന്ധപ്പെട്ട വിഷയങ്ങൾ കൈകാര്യം ചെയ്യുന്നതിൽ ജെമിനി പൂർണ്ണമായും വിശ്വസനീയമല്ലെന്നായിരുന്നു ഗൂഗിളിൻ്റെ പ്രതികരണം.
Content Highlights: Google's AI chatbot Gemini shocks student seeking help with homework