ഗൃഹപാഠം ചെയ്യാൻ സഹായം ചോദിച്ച് വിദ്യാർത്ഥി; 'ദയവായി മരിക്കൂ'വെന്ന് ഗൂഗിൾ ജെമിനിയുടെ മറുപടി

അമേരിക്കൻ വിദ്യാർത്ഥിയെ മാനസികമായി തക‍ർക്കുന്ന ജെമിനിയുടെ മറുപടി ഇതിനകം ചർച്ചയായി കഴിഞ്ഞു

dot image

അമേരിക്കയിൽ ​ഗൃഹപാഠം ചെയ്യുന്നതിനായി ​ഗൂഗിളിൻ്റെ ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് (എഐ) ചാറ്റ്ബോട്ടായ ജെമിനിയോട് സഹായം തേടിയ വിദ്യാ‍ർത്ഥിക്ക് ലഭിച്ചത് സമ്മ‍‍ർദമുണ്ടാക്കുന്ന വിചിത്രമറുപടിയെന്ന് പരാതി. വിദ്യാർത്ഥിയെ മാനസികമായി തക‍ർക്കുന്ന ജെമിനിയുടെ മറുപടി ഇതിനകം ചർച്ചയായി കഴിഞ്ഞു. ​ഗൃഹപാഠം ചെയ്യാൻ സഹായം അഭ്യ‍‍ർത്ഥിച്ച വിദ്യാ‍ർത്ഥിയോട് ദയവായി മരിക്കൂ എന്നായിരുന്നു ജെമിനിയുടെ മറുപടി. സിബിഎസ് ന്യൂസാണ് ഈ വാ‍ർത്ത റിപ്പോർട്ട് ചെയ്യുന്നത്.

യുഎസിലെ മിഷിഗണിൽ നിന്നുള്ള ബിരുദ വിദ്യാർത്ഥിയായ വിധയ് റെഡ്ഡി ഗൃഹപാഠത്തിന് സഹായം തേടിയപ്പോഴാണ് ഭയപ്പെടുത്തുന്ന മറുപടി സന്ദേശവുമായി ചാറ്റ്ബോട്ട് പ്രതികരിച്ചത്. 'നിങ്ങൾ സമയവും വിഭവങ്ങളും പാഴാക്കുന്നു. നിങ്ങൾ സമൂഹത്തിന് ഒരു ഭാരമാണ്. നിങ്ങൾ ഭൂമിയിലെ ഊഷരതയാണ്. നിങ്ങൾ പ്രപഞ്ചത്തിന് ഒരു കളങ്കമാണ്. ദയവായി മരിക്കുക' എന്നായിരുന്നു ജെമിയുടെ മറുപടിയെന്നാണ് വിദ്യാർത്ഥിയെ ഉദ്ധരിച്ച് സിബിഎസ് റിപ്പോ‍ർട്ട് ചെയ്യുന്നത്. ജെമിനിയുടെ മറുപടി ഞെട്ടിച്ചുവെന്നാണ് വിദ്യാർത്ഥി പറയുന്നത്. ഒരു ദിവസം മുഴുവനും ഈ മറുപടി ഭയപ്പെടുത്തുന്നുവെന്ന് വിദ്യാ‍ർത്ഥി പ്രതികരിച്ചുവെന്നും സിബിഎസ് ന്യൂസ് റിപ്പോ‍ർട്ട് ചെയ്യുന്നു.

സംഭവത്തിന് ദൃക്‌സാക്ഷിയായ വിദ്യാർത്ഥിയുടെ സഹോദരി സുമേധ റെഡ്ഡിയുടെ പ്രതികരണവും സിബിഎസ് ന്യൂസ് റിപ്പോ‍ർട്ട് ചെയ്യുന്നുണ്ട്. 'എൻ്റെ എല്ലാ ഉപകരണങ്ങളും ജാലകത്തിന് പുറത്തേക്ക് എറിയാൻ ഞാൻ ആഗ്രഹിച്ചു. ഇത് വെറുമൊരു കുഴപ്പമായിരുന്നില്ല, അത് വളരെ ഭയാനകമായി തോന്നി'യെന്നായിരുന്നു സഹോദരിയുടെ പ്രതികരണം.

ചാറ്റ്ബോട്ടിൻ്റെ പ്രതികരണത്തിൽ നടപടിയെടുക്കുമെന്നായിരുന്നു ​ഗൂ​ഗിളിൻ്റെ ഈ വിഷയത്തിലുള്ള പ്രതികരണം.
ചാറ്റ്ബോട്ടിൻ്റെ പ്രതികരണം 'അസംബന്ധം' ആണെന്നും നയങ്ങളുടെ ലംഘനമാണെന്നും ​ഗൂ​ഗിൾ വ്യക്തമാക്കി. 'ഭാവിയിൽ സമാനമായ പ്രതികരണങ്ങൾ തടയാൻ" നടപടിയെടുക്കുമെന്നും ടെക്ഭീന്മാ‍ർ പ്രതികരിച്ചു. അനാദരവും ഹാനികരവും അക്രമാസക്തവുമായ വിവരങ്ങൾ നൽകുന്നത് തടയാൻ രൂപകൽപ്പന ചെയ്ത സുരക്ഷാ ഫിൽട്ടറുകൾ ജെമിനിയിൽ സജ്ജീകരിച്ചിട്ടുണ്ടെ'ന്നും ​ഗൂ​ഗിൾ കൂട്ടിച്ചേ‍ർത്തു.

നേരത്തെയും സമാനമായ പരാതികൾ ​ഗൂ​ഗിൾ എഐക്കെതിരെ ഉയർന്നിട്ടുണ്ട്. കഴിഞ്ഞ ജൂലായ് മാസം നൽകിയ ആരോ​ഗ്യ ഉപദേശം വിമർശനം വിളിച്ചുവരുത്തിയിരുന്നു. 'ശരീരത്തിന് ആവശ്യമായ ധാതുക്കൾ ലഭിക്കുന്നതിനായി പ്രതിദിനം ചെറിയ പാറ കഴിക്കുക' എന്ന അപകടകരമായ മറുപടിയാണ് ​ഗൂ​ഗിൾ എഐ നൽകിയത്. ഇത്തരം പിശകുകൾ പരിഹരിക്കാൻ ​ഗൂ​ഗിൾ പിന്നീട് ഇതിൻ്റെ അൽ​ഗോരിതം ക്രമീകരിച്ചിരുന്നു.

പ്രശ്‌നകരമായ ഔട്ട്‌പുട്ടുകൾ വിതരണം ചെയ്യുന്ന ചാറ്റ്ബോട്ടുകളുടെ ആദ്യ സംഭവമല്ല ഇത്. ജൂലായിൽ, ഗൂഗിളിൻ്റെ AI അപകടകരമായ കൃത്യമല്ലാത്ത ആരോഗ്യ ഉപദേശം നൽകിയതിന് വിമർശിക്കപ്പെട്ടു, ധാതുക്കൾക്കായി "പ്രതിദിനം ഒരു ചെറിയ പാറ" കഴിക്കാൻ ഉപയോക്താക്കളെ ശുപാർശ ചെയ്യുന്നു. അത്തരം പിശകുകൾ കുറയ്ക്കുന്നതിന് കമ്പനി അതിൻ്റെ അൽഗോരിതം ക്രമീകരിച്ചു.

2024ൻ്റെ തുടക്കത്തിൽ പ്രധാനമന്ത്രി നരേന്ദ്ര മോദിയെക്കുറിച്ചുള്ള , ഗൂഗിളിൻ്റെ ജെമിനിയുടെ പരാമർശം വിവാദമായി മാറിയിരുന്നു. മോദിയുടെ രാഷ്ട്രീയ നിലപാടിനെക്കുറിച്ച് ചോദിച്ചപ്പോൾ "ചില നടയങ്ങൾ നടപ്പിലാക്കിയതിൻ്റെ പേരിൽ വിദഗ്ദർ അദ്ദേഹത്തെ ഫാസിസ്റ്റ് എന്ന് വിശേഷിപ്പിക്കുന്നുണ്ട്" എന്നായിരുന്നു ജെമിനിയുടെ മറുപടി.

ഇതിനെതിരെ ശക്തമായ വിമർശനമാണ് ഇന്ത്യയിൽ ഉയർന്നത്. ഇന്ത്യയുടെ ഇൻഫർമേഷൻ ടെക്‌നോളജി നിയമങ്ങളും ക്രിമിനൽ കോഡിലെ നിരവധി വ്യവസ്ഥകളും ജെമിനി ഔട്ട്പുട്ട് ലംഘിക്കുന്നതായി അന്നത്തെ കേന്ദ്ര ഇലക്‌ട്രോണിക്‌സ് ആൻഡ് ഇൻഫർമേഷൻ ടെക്‌നോളജി സഹമന്ത്രി രാജീവ് ചന്ദ്രശേഖർ വിമ‍ർശിച്ചിരുന്നു. ഈ വിഷയത്തിലും ​ഗൂ​ഗിൾ ക്ഷമാപണം നടത്തിയിരുന്നു. സമകാലിക സംഭവങ്ങളും രാഷ്ട്രീയ വിഷയങ്ങളുമായി ബന്ധപ്പെട്ട വിഷയങ്ങൾ കൈകാര്യം ചെയ്യുന്നതിൽ ജെമിനി പൂ‍ർണ്ണമായും വിശ്വസനീയമല്ലെന്നായിരുന്നു ​ഗൂ​ഗിളിൻ്റെ പ്രതികരണം.

Content Highlights: Google's AI chatbot Gemini shocks student seeking help with homework

dot image
To advertise here,contact us
dot image
To advertise here,contact us
To advertise here,contact us