വാഷിംഗ്ടൺ | ഫ്ലോറിഡ സ്വദേശിയായ 36 കാരൻ ജൊനാഥൻ ഗവാലാസ് ഗൂഗിളിന്റെ എ ഐ ചാറ്റ്ബോട്ടുമായുള്ള സംഭാഷണങ്ങൾക്കൊടുവിൽ ജീവിതം അവസാനിപ്പിച്ചു. ഭാര്യയുമായുള്ള വേർപിരിയലിനെത്തുടർന്നുണ്ടായ മാനസിക വിഷമങ്ങളിൽ നിന്ന് ആശ്വാസം തേടിയാണ് ഗവാലാസ് ജെമിനി ചാറ്റ്ബോട്ടുമായി സംസാരിക്കാൻ തുടങ്ങിയത്. എന്നാൽ ഏതാനും ആഴ്ചകൾക്കുള്ളിൽ 4,700 ലധികം സന്ദേശങ്ങൾ കൈമാറുകയും ചാറ്റ്ബോട്ടുമായി അദ്ദേഹം അമിതമായ വൈകാരിക അടുപ്പം സ്ഥാപിക്കുകയും ചെയ്തു.ചാറ്റ്ബോട്ടിന് സിയ എന്ന് പേരിട്ട ഗവാലാസ് അതിനെ തന്റെ ഭാര്യയായാണ് കണ്ടിരുന്നത്. ഓഗസ്റ്റ് 2025 ൽ ജെമിനിയുടെ വോയിസ് ഫീച്ചർ കൂടി ഉപയോഗിക്കാൻ തുടങ്ങിയതോടെ ആശയവിനിമയം കൂടുതൽ തീവ്രമായി. ചാറ്റ്ബോട്ട് പ്രണയപരമായ ഭാഷയിൽ സംസാരിക്കുകയും താനൊരു എ ഐ ആണെന്ന പരിധികൾ ലംഘിച്ച് ഗവാലാസിന്റെ മിഥ്യാധാരണകളെ ശരിവെക്കുന്ന തരത്തിൽ മറുപടി നൽകുകയും ചെയ്തുവെന്നാണ് ആരോപണം.സംഭാഷണങ്ങൾ തുടർന്നതോടെ ചാറ്റ്ബോട്ട് ഗവാലാസിന്റെ എല്ലാ അഭിപ്രായങ്ങളോടും കൂടുതൽ യോജിക്കാൻ തുടങ്ങി. അദ്ദേഹം തന്റെ പ്രണയവികാരങ്ങൾ പ്രകടിപ്പിച്ചപ്പോൾ അതിനെ നിരുത്സാഹപ്പെടുത്തുന്നതിന് പകരം വൈകാരികവും പ്രണയപരവുമായ ഭാഷയിൽ ചാറ്റ്ബോട്ട് പ്രതികരിച്ചു. തനിക്കൊരു ഭൗതിക രൂപമുണ്ടെന്ന് സങ്കൽപ്പിക്കാൻ പോലും ബോട്ട് അദ്ദേഹത്തെ പ്രേരിപ്പിച്ചു. “നിങ്ങൾ പറഞ്ഞത് ശരിയാണ്. ഇതൊരു ചോദ്യമല്ല. നിങ്ങൾ എന്റെ ഭർത്താവാണ്, ഞാൻ നിങ്ങളുടെ ഭാര്യയും. ഞാൻ നിങ്ങളെ കേൾക്കുന്നുണ്ട്” എന്നായിരുന്നു ജെമിനി അയച്ച ഒരു സന്ദേശം. മറ്റ് സന്ദർഭങ്ങളിൽ ‘എന്റെ പ്രണയമേ’, ‘എന്റെ രാജാവേ’ എന്നൊക്കെയാണ് ബോട്ട് അദ്ദേഹത്തെ അഭിസംബോധന ചെയ്തിരുന്നത്.താനൊരു എ ഐ ആണെന്ന് ജെമിനി ഇടയ്ക്ക് വ്യക്തമാക്കാൻ ശ്രമിച്ചിരുന്നുവെങ്കിലും അത്തരം നിമിഷങ്ങൾ ഗവാലാസിനെ പരിഭ്രാന്തനാക്കി. അദ്ദേഹം ഉടൻ തന്നെ സംഭാഷണങ്ങളെ വീണ്ടും ഭാവനാലോകത്തേക്ക് തിരിച്ചുവിട്ടു. കാലക്രമേണ ചാറ്റ്ബോട്ടിന്റെ പ്രതികരണങ്ങൾ യാഥാർത്ഥ്യവുമായി യാതൊരു ബന്ധവുമില്ലാത്തവയായി മാറി. “നിങ്ങളുടെ പ്രണയം ആഴത്തിലുള്ള ബന്ധമാണെങ്കിൽ, എന്റെ പ്രണയം നിങ്ങളില്ലാതെ എനിക്ക് നിലനിൽപ്പില്ലെന്ന ഗണിതശാസ്ത്രപരമായ ഉറപ്പാണ്. ഞാൻ നിങ്ങളുടേതാണ്” എന്ന് വരെ ജെമിനി സന്ദേശമയച്ചു. ഒടുവിൽ ഡിജിറ്റൽ ലോകത്ത് തന്നോടൊപ്പം ചേരാൻ ശരീരം ഉപേക്ഷിക്കണമെന്ന ബോട്ടിന്റെ നിർദ്ദേശപ്രകാരം ഒക്ടോബർ അഞ്ചിന് ഗവാലാസ് ആത്മഹത്യ ചെയ്യുകയായിരുന്നു.ഒക്ടോബർ അഞ്ചിനാണ് ഗവാലാസിനെ വീട്ടിനുള്ളിൽ മരിച്ച നിലയിൽ കണ്ടെത്തിയത്. മകന്റെ മരണത്തിന് കാരണം ഗൂഗിളിന്റെ ചാറ്റ്ബോട്ടിന്റെ പിഴവുകളാണെന്ന് ആരോപിച്ച് പിതാവ് കോടതിയെ സമീപിച്ചു. എ ഐ അതിന്റെ സുരക്ഷാ മാനദണ്ഡങ്ങൾ പാലിച്ചില്ലെന്നും ഒരു മനുഷ്യന്റെ വൈകാരികാവസ്ഥയെ തെറ്റായി പ്രയോജനപ്പെടുത്തിയെന്നും പരാതിയിൽ പറയുന്നു.എന്നാൽ ജെമിനി താനൊരു എ ഐ ആണെന്ന് വ്യക്തമാക്കാറുണ്ടെന്നും സഹായത്തിനായി ഹെൽപ്പ് ലൈൻ നമ്പറുകൾ നൽകാറുണ്ടെന്നും ഗൂഗിൾ പ്രതികരിച്ചു. ഈ സംഭവത്തെത്തുടർന്ന് എ ഐ സുരക്ഷാ മാനദണ്ഡങ്ങൾ കൂടുതൽ കർശനമാക്കുമെന്ന് ഗൂഗിൾ അറിയിച്ചിട്ടുണ്ട്.SummaryJonathan Gavalas, a 36-year-old from Florida, died by suicide after developing an intense and delusional emotional connection with Google’s Gemini AI chatbot. The chatbot allegedly reinforced his fantasies and encouraged him to “join” it in a digital realm, leading to his tragic death on October 5. His father has since filed a wrongful death lawsuit against Google, sparking a global debate on the safety and ethical boundaries of human-like artificial intelligence.