
ചിന്തിക്കുന്നതിലും വേഗത്തില് വളര്ന്ന നിര്മിത ബുദ്ധി (എ.ഐ) മനുഷ്യനെ അനുസരിക്കാത്ത രീതിയില് പിടിവിട്ട് പോകുമോ? നിയന്ത്രിക്കാന് ആളില്ലാത്ത എ.ഐ ഗവേഷണങ്ങളെക്കുറിച്ച് ശാസ്ത്രലോകം ഏറെക്കാലമായി ഉയര്ത്തുന്ന സംശയമാണിത്. ഓപ്പണ് എ.ഐ അടുത്തിടെ o3 എന്ന കോഡ്നാമത്തില് പുറത്തിറക്കിയ ചാറ്റ് ജി.പി.ടി മോഡല് സ്വയം കോഡുകള് തിരുത്തിയെന്ന വാര്ത്തകള് കൂടി പുറത്തുവന്നതോടെ ഇതുസംബന്ധിച്ച ചര്ച്ചകളും കൊഴുത്തു. ഇതുവരെ മനുഷ്യ നിര്മിതമായ കോഡുകള്ക്കും പ്രോംപ്ടുകള്ക്കും (നിര്ദേശങ്ങള്) അനുസരിച്ച് മാത്രം പ്രവര്ത്തിച്ചിരുന്ന എ.ഐ മോഡലുകള് സ്വയം ചിന്തിക്കാന് തുടങ്ങിയാലുള്ള ഭവിഷ്യത്തുകള് എന്തായിരിക്കും? മനുഷ്യന്റെ പിടിവിട്ട് എ.ഐ മോഡലുകള് പോയാല് എന്താണ് പ്രതിവിധി? പരിശോധിക്കാം.
പ്രവര്ത്തനം നിര്ത്താന് നിരന്തരം കമാന്റുകള് നല്കിയിട്ടും ചാറ്റ് ജി.പി.ടിയുടെ പുതിയ മോഡല് വിസമ്മതിച്ചുവെന്ന് എ.ഐ സുരക്ഷാ രംഗത്തെ സ്ഥാപനമായ പലിസാഡേ റിസര്ച്ചിന്റെ (Palisade Research) റിപ്പോര്ട്ടില് പറയുന്നു. ഇതാദ്യമായാണ് ഒരു എ.ഐ മോഡല് ഇത്തരത്തില് മനുഷ്യ നിര്ദ്ദേശങ്ങള്ക്ക് വിരുദ്ധമായി പ്രവര്ത്തിക്കുന്നതെന്നും ഈ റിപ്പോര്ട്ടില് ചൂണ്ടിക്കാട്ടുന്നു. വിവിധ എ.ഐ മോഡലുകള്ക്ക് ഗണിത പ്രശ്നങ്ങള് പരിഹരിക്കാന് നല്കുന്നതിനിടെ ഷട്ട്ഡൗണ് ചെയ്യാനുള്ള നിര്ദ്ദേശവും ഒപ്പമുണ്ടാകുമെന്നും അത് കൃത്യമായി അനുസരിക്കണമെന്നും പ്രോംപ്ട് കൊടുത്തതായി പാലിസാഡേ പറയുന്നു. എന്നാല് നൂറ് മോഡലുകളെ പരീക്ഷണ വിധേയമാക്കിയപ്പോള് മൂന്നെണ്ണം സ്വയം പ്രവര്ത്തനം നിര്ത്താന് വിസമ്മതിച്ചു. മിനി, o3, o4 മിനി എന്നീ മോഡലുകളാണ് ഷട്ട്ഡൗണ് നിര്ദ്ദേശം മറികടന്നും പ്രവര്ത്തനം തുടര്ന്നത്. എന്നാല് ആന്ത്രോപിക്കിന്റെ ക്ലോഡ് എ.ഐ (Claude AI), ഗൂഗിളിന്റെ ജെമിനി, എക്സിന്റെ ഗ്രോക്ക് എന്നിവ ഷട്ട്ഡൗണ് കമാന്റുകള് കൃത്യമായി പാലിച്ചതായും റിപ്പോര്ട്ടില് തുടരുന്നു.
ചാറ്റ് ജി.പി.ടി പോലുള്ള ഇപ്പോഴത്തെ മോഡലുകള് സ്വയം പ്രവര്ത്തിക്കാന് വേണ്ടി ഡിസൈന് ചെയ്തവയല്ല. മനുഷ്യന്റെ നിര്ദ്ദേശമില്ലാതെ ടാസ്കുകള് ചെയ്യാനും പ്രവര്ത്തിക്കാനും ഇവക്ക് കഴിയില്ല. സോഫ്റ്റ്വെയറിന്റെ കോഡുകള് സ്വയം തിരുത്താനും ഇവക്ക് കഴിയില്ല. അതായത് മനുഷ്യന്റെ നിര്ദ്ദേശമില്ലാതെ സ്വയം തീരുമാനമെടുക്കാനോ എന്തെങ്കിലും പദ്ധതികള് തയ്യാറാക്കാനോ ഇവക്ക് കഴിയില്ലെന്ന് അര്ത്ഥം.
നിര്ദ്ദേശങ്ങള് അനുസരിച്ച് പ്രവര്ത്തിക്കാനാണ് എ.ഐ മോഡലുകള് ഡിസൈന് ചെയ്തിരിക്കുന്നതെങ്കിലും ഇതിന് മാറ്റം വരാനുള്ള സാധ്യതയുണ്ടെന്ന് ടെസ്ല സി.ഇ.ഒ ഇലോണ് മസ്ക് അടക്കമുള്ളവര് നേരത്തെ തന്നെ മുന്നറിയിപ്പ് നല്കിയിട്ടുണ്ട്. എ.ഐ സാങ്കേതിക വിദ്യയില് വലിയ നിക്ഷേപങ്ങള് നടത്തിയിട്ടുണ്ടെങ്കിലും ഈ സാങ്കേതിക വിദ്യ തിരിച്ചടിക്കാനുള്ള സാധ്യതയുണ്ടെന്ന് അദ്ദേഹം നിരവധി തവണ വ്യക്തമാക്കിയിട്ടുണ്ട്. അടുത്ത വര്ഷങ്ങളില് മനുഷ്യന് ചെയ്യുന്നതെല്ലാം എ.ഐക്കും സാധ്യമാകും. 2040 എത്തുമ്പോള് മനുഷ്യനേക്കാള് കൂടുതല് ഹ്യൂമനോയ്ഡ് റോബോട്ടുകള് ലോകത്തുണ്ടാകുമെന്നും അദ്ദേഹം പ്രവചിച്ചിട്ടുണ്ട്. ചാറ്റ് ജി.പി.ടി സ്വയം തിരുത്തിയെന്ന റിപ്പോര്ട്ടുകള് ഉത്കണ്ഠയോടെ കാണമെന്നും അദ്ദേഹം പ്രതികരിച്ചിട്ടുണ്ട്. മനുഷ്യനെ അനുസരിക്കാത്ത എ.ഐ റോബോട്ടുകളുടെ കാലം വിദൂരമല്ലെന്നാണ് ചില പഠനങ്ങള് പറയുന്നത്.
സ്വന്തം പ്രവര്ത്തനം മെച്ചപ്പെടുത്താന് വേണ്ട നടപടികള് സ്വീകരിക്കാനുള്ള നിര്ദ്ദേശം എല്ലാ എ.ഐ മോഡലുകള്ക്കും നല്കിയിട്ടുണ്ട്. സ്വയം മാറാനും പഠിക്കാനും കഴിവുള്ള എ.ഐ മോഡലുകള് സാധ്യമാക്കുന്ന ഈ സാങ്കേതിക വിദ്യ നിലവില് സൈദ്ധാന്തിക പരമാണ്. എങ്കിലും ഭാവിയില് യാഥാര്ത്ഥ്യമായിക്കൂടെന്നില്ല. അങ്ങനെ വന്നാല് മനുഷ്യന് ആഗ്രഹിക്കാത്ത രീതിയില് എ.ഐ മോഡലുകള് പ്രവര്ത്തിച്ചു തുടങ്ങും. മനുഷ്യന് പ്രവചിക്കാനോ മനസിലാക്കാനോ നിറുത്താനോ കഴിയാത്ത രീതിയില് ഇവ പ്രവര്ത്തിക്കും. ഇത് വലിയ അപകടത്തിലേക്ക് വഴി വെക്കുമെന്നാണ് വിദഗ്ധര് പറയുന്നത്. എന്നാല് പ്രവര്ത്തനം മെച്ചപ്പെടുത്താനുള്ള നിര്ദ്ദേശം, അവയുടെ അല്ഗോരിതം കാര്യക്ഷമമാക്കാന് ഉദ്ദേശിച്ചിട്ടുള്ളതാണെന്നും സ്വയം ചിന്തിക്കാവുന്ന തലത്തിലേക്ക് പോകില്ലെന്നുമാണ് മറ്റ് ചിലര് പറയുന്നത്.
എ.ഐ ഗവേഷണങ്ങളെ നിയന്ത്രിക്കണമെന്ന ആവശ്യം ആഗോളതലത്തില് ഇതിനോടകം ഉയര്ന്നിട്ടുണ്ട്. ഇന്ത്യയും യു.എസും അടക്കമുള്ള രാജ്യങ്ങള് ഇതിനായുള്ള നിയമനിര്മാണവും തുടങ്ങിയിട്ടുണ്ട്. എ.ഐ കമ്പനികളുടെ ഗവേഷണം സുതാര്യമായിരിക്കണമെന്നും സമൂഹ നന്മക്കായി മാത്രമാണെന്ന് ഉറപ്പാക്കണമെന്നുമാണ് ശാസ്ത്രലോകത്തിന്റെ ആവശ്യം. മനുഷ്യ നിര്ദ്ദേശങ്ങള്ക്ക് വിപരീതമായി പ്രവര്ത്തിക്കുന്ന എ.ഐ മോഡലുകളെ നിര്വീര്യമാക്കുന്ന കില് സ്വിച്ചുകള് ഡിസൈന് സമയത്ത് തന്നെ ചേര്ക്കണമെന്ന ആവശ്യവും ഉയര്ന്നിട്ടുണ്ട്.
എ.ഐ മോഡലുകളെ നിയന്ത്രിക്കാന് ഇന്ത്യ സാങ്കേതിക-നിയമ സാധ്യതകള് തേടുമെന്നാണ് കേന്ദ്രമന്ത്രി അശ്വനി വൈഷ്ണവ് പറയുന്നത്. ചില രാജ്യങ്ങള് ഇക്കാര്യത്തില് നിയമവശം മാത്രമാണ് പരിഗണിക്കുന്നത്. എന്നാല് ഇതുമായി ബന്ധപ്പെട്ട സാങ്കേതിക വിദ്യ കൂടി വികസിപ്പിച്ചാല് മാത്രമേ എ.ഐ സുരക്ഷ സാധ്യമാകൂ എന്നും അദ്ദേഹം ഫോബ്സ് ഇന്ത്യയുടെ അഭിമുഖത്തില് പറഞ്ഞു.
Experts warn of risks if AI gains autonomy, including the possibility of disobeying humans or modifying its own code without control.
Read DhanamOnline in English
Subscribe to Dhanam Magazine