പടച്ചു വിട്ടവനെ തട്ടിക്കളയുമോ! മനുഷ്യനെ അനുസരിക്കാത്ത നിര്‍മിത ബുദ്ധിക്കാലം വരുമോ? കോഡുകള്‍ സ്വയം തിരുത്തി ചാറ്റ് ജി.പി.ടി, പിടി വിട്ടാല്‍ എന്ത് ചെയ്യും?

ഇതുവരെ മനുഷ്യ നിര്‍മിതമായ കോഡുകള്‍ക്കും പ്രോംപ്ടുകള്‍ക്കും (നിര്‍ദേശങ്ങള്‍) അനുസരിച്ച് മാത്രം പ്രവര്‍ത്തിച്ചിരുന്ന എ.ഐ മോഡലുകള്‍ സ്വയം ചിന്തിക്കാന്‍ തുടങ്ങിയാലുള്ള ഭവിഷ്യത്തുകള്‍ എന്തായിരിക്കും?
Ai
Canva
Published on

ചിന്തിക്കുന്നതിലും വേഗത്തില്‍ വളര്‍ന്ന നിര്‍മിത ബുദ്ധി (എ.ഐ) മനുഷ്യനെ അനുസരിക്കാത്ത രീതിയില്‍ പിടിവിട്ട് പോകുമോ? നിയന്ത്രിക്കാന്‍ ആളില്ലാത്ത എ.ഐ ഗവേഷണങ്ങളെക്കുറിച്ച് ശാസ്ത്രലോകം ഏറെക്കാലമായി ഉയര്‍ത്തുന്ന സംശയമാണിത്. ഓപ്പണ്‍ എ.ഐ അടുത്തിടെ o3 എന്ന കോഡ്‌നാമത്തില്‍ പുറത്തിറക്കിയ ചാറ്റ് ജി.പി.ടി മോഡല്‍ സ്വയം കോഡുകള്‍ തിരുത്തിയെന്ന വാര്‍ത്തകള്‍ കൂടി പുറത്തുവന്നതോടെ ഇതുസംബന്ധിച്ച ചര്‍ച്ചകളും കൊഴുത്തു. ഇതുവരെ മനുഷ്യ നിര്‍മിതമായ കോഡുകള്‍ക്കും പ്രോംപ്ടുകള്‍ക്കും (നിര്‍ദേശങ്ങള്‍) അനുസരിച്ച് മാത്രം പ്രവര്‍ത്തിച്ചിരുന്ന എ.ഐ മോഡലുകള്‍ സ്വയം ചിന്തിക്കാന്‍ തുടങ്ങിയാലുള്ള ഭവിഷ്യത്തുകള്‍ എന്തായിരിക്കും? മനുഷ്യന്റെ പിടിവിട്ട് എ.ഐ മോഡലുകള്‍ പോയാല്‍ എന്താണ് പ്രതിവിധി? പരിശോധിക്കാം.

ഷട്ട്ഡൗണ്‍ ചെയ്യാന്‍ മടിച്ച് ചാറ്റ് ജി.പി.ടി

പ്രവര്‍ത്തനം നിര്‍ത്താന്‍ നിരന്തരം കമാന്റുകള്‍ നല്‍കിയിട്ടും ചാറ്റ് ജി.പി.ടിയുടെ പുതിയ മോഡല്‍ വിസമ്മതിച്ചുവെന്ന് എ.ഐ സുരക്ഷാ രംഗത്തെ സ്ഥാപനമായ പലിസാഡേ റിസര്‍ച്ചിന്റെ (Palisade Research) റിപ്പോര്‍ട്ടില്‍ പറയുന്നു. ഇതാദ്യമായാണ് ഒരു എ.ഐ മോഡല്‍ ഇത്തരത്തില്‍ മനുഷ്യ നിര്‍ദ്ദേശങ്ങള്‍ക്ക് വിരുദ്ധമായി പ്രവര്‍ത്തിക്കുന്നതെന്നും ഈ റിപ്പോര്‍ട്ടില്‍ ചൂണ്ടിക്കാട്ടുന്നു. വിവിധ എ.ഐ മോഡലുകള്‍ക്ക് ഗണിത പ്രശ്‌നങ്ങള്‍ പരിഹരിക്കാന്‍ നല്‍കുന്നതിനിടെ ഷട്ട്ഡൗണ്‍ ചെയ്യാനുള്ള നിര്‍ദ്ദേശവും ഒപ്പമുണ്ടാകുമെന്നും അത് കൃത്യമായി അനുസരിക്കണമെന്നും പ്രോംപ്ട് കൊടുത്തതായി പാലിസാഡേ പറയുന്നു. എന്നാല്‍ നൂറ് മോഡലുകളെ പരീക്ഷണ വിധേയമാക്കിയപ്പോള്‍ മൂന്നെണ്ണം സ്വയം പ്രവര്‍ത്തനം നിര്‍ത്താന്‍ വിസമ്മതിച്ചു. മിനി, o3, o4 മിനി എന്നീ മോഡലുകളാണ് ഷട്ട്ഡൗണ്‍ നിര്‍ദ്ദേശം മറികടന്നും പ്രവര്‍ത്തനം തുടര്‍ന്നത്. എന്നാല്‍ ആന്ത്രോപിക്കിന്റെ ക്ലോഡ് എ.ഐ (Claude AI), ഗൂഗിളിന്റെ ജെമിനി, എക്‌സിന്റെ ഗ്രോക്ക് എന്നിവ ഷട്ട്ഡൗണ്‍ കമാന്റുകള്‍ കൃത്യമായി പാലിച്ചതായും റിപ്പോര്‍ട്ടില്‍ തുടരുന്നു.

നിലവിലെ സാങ്കേതിക വിദ്യ ഇങ്ങനെ

ചാറ്റ് ജി.പി.ടി പോലുള്ള ഇപ്പോഴത്തെ മോഡലുകള്‍ സ്വയം പ്രവര്‍ത്തിക്കാന്‍ വേണ്ടി ഡിസൈന്‍ ചെയ്തവയല്ല. മനുഷ്യന്റെ നിര്‍ദ്ദേശമില്ലാതെ ടാസ്‌കുകള്‍ ചെയ്യാനും പ്രവര്‍ത്തിക്കാനും ഇവക്ക് കഴിയില്ല. സോഫ്റ്റ്‌വെയറിന്റെ കോഡുകള്‍ സ്വയം തിരുത്താനും ഇവക്ക് കഴിയില്ല. അതായത് മനുഷ്യന്റെ നിര്‍ദ്ദേശമില്ലാതെ സ്വയം തീരുമാനമെടുക്കാനോ എന്തെങ്കിലും പദ്ധതികള്‍ തയ്യാറാക്കാനോ ഇവക്ക് കഴിയില്ലെന്ന് അര്‍ത്ഥം.

മനുഷ്യനെ അനുസരിക്കാതെ വരുമോ?

നിര്‍ദ്ദേശങ്ങള്‍ അനുസരിച്ച് പ്രവര്‍ത്തിക്കാനാണ് എ.ഐ മോഡലുകള്‍ ഡിസൈന്‍ ചെയ്തിരിക്കുന്നതെങ്കിലും ഇതിന് മാറ്റം വരാനുള്ള സാധ്യതയുണ്ടെന്ന് ടെസ്‌ല സി.ഇ.ഒ ഇലോണ്‍ മസ്‌ക് അടക്കമുള്ളവര്‍ നേരത്തെ തന്നെ മുന്നറിയിപ്പ് നല്‍കിയിട്ടുണ്ട്. എ.ഐ സാങ്കേതിക വിദ്യയില്‍ വലിയ നിക്ഷേപങ്ങള്‍ നടത്തിയിട്ടുണ്ടെങ്കിലും ഈ സാങ്കേതിക വിദ്യ തിരിച്ചടിക്കാനുള്ള സാധ്യതയുണ്ടെന്ന് അദ്ദേഹം നിരവധി തവണ വ്യക്തമാക്കിയിട്ടുണ്ട്. അടുത്ത വര്‍ഷങ്ങളില്‍ മനുഷ്യന്‍ ചെയ്യുന്നതെല്ലാം എ.ഐക്കും സാധ്യമാകും. 2040 എത്തുമ്പോള്‍ മനുഷ്യനേക്കാള്‍ കൂടുതല്‍ ഹ്യൂമനോയ്ഡ് റോബോട്ടുകള്‍ ലോകത്തുണ്ടാകുമെന്നും അദ്ദേഹം പ്രവചിച്ചിട്ടുണ്ട്. ചാറ്റ് ജി.പി.ടി സ്വയം തിരുത്തിയെന്ന റിപ്പോര്‍ട്ടുകള്‍ ഉത്കണ്ഠയോടെ കാണമെന്നും അദ്ദേഹം പ്രതികരിച്ചിട്ടുണ്ട്. മനുഷ്യനെ അനുസരിക്കാത്ത എ.ഐ റോബോട്ടുകളുടെ കാലം വിദൂരമല്ലെന്നാണ് ചില പഠനങ്ങള്‍ പറയുന്നത്.

അപകടം വരുന്നത് ഇങ്ങനെ

സ്വന്തം പ്രവര്‍ത്തനം മെച്ചപ്പെടുത്താന്‍ വേണ്ട നടപടികള്‍ സ്വീകരിക്കാനുള്ള നിര്‍ദ്ദേശം എല്ലാ എ.ഐ മോഡലുകള്‍ക്കും നല്‍കിയിട്ടുണ്ട്. സ്വയം മാറാനും പഠിക്കാനും കഴിവുള്ള എ.ഐ മോഡലുകള്‍ സാധ്യമാക്കുന്ന ഈ സാങ്കേതിക വിദ്യ നിലവില്‍ സൈദ്ധാന്തിക പരമാണ്. എങ്കിലും ഭാവിയില്‍ യാഥാര്‍ത്ഥ്യമായിക്കൂടെന്നില്ല. അങ്ങനെ വന്നാല്‍ മനുഷ്യന്‍ ആഗ്രഹിക്കാത്ത രീതിയില്‍ എ.ഐ മോഡലുകള്‍ പ്രവര്‍ത്തിച്ചു തുടങ്ങും. മനുഷ്യന് പ്രവചിക്കാനോ മനസിലാക്കാനോ നിറുത്താനോ കഴിയാത്ത രീതിയില്‍ ഇവ പ്രവര്‍ത്തിക്കും. ഇത് വലിയ അപകടത്തിലേക്ക് വഴി വെക്കുമെന്നാണ് വിദഗ്ധര്‍ പറയുന്നത്. എന്നാല്‍ പ്രവര്‍ത്തനം മെച്ചപ്പെടുത്താനുള്ള നിര്‍ദ്ദേശം, അവയുടെ അല്‍ഗോരിതം കാര്യക്ഷമമാക്കാന്‍ ഉദ്ദേശിച്ചിട്ടുള്ളതാണെന്നും സ്വയം ചിന്തിക്കാവുന്ന തലത്തിലേക്ക് പോകില്ലെന്നുമാണ് മറ്റ് ചിലര്‍ പറയുന്നത്.

എന്താണ് പരിഹാരം

എ.ഐ ഗവേഷണങ്ങളെ നിയന്ത്രിക്കണമെന്ന ആവശ്യം ആഗോളതലത്തില്‍ ഇതിനോടകം ഉയര്‍ന്നിട്ടുണ്ട്. ഇന്ത്യയും യു.എസും അടക്കമുള്ള രാജ്യങ്ങള്‍ ഇതിനായുള്ള നിയമനിര്‍മാണവും തുടങ്ങിയിട്ടുണ്ട്. എ.ഐ കമ്പനികളുടെ ഗവേഷണം സുതാര്യമായിരിക്കണമെന്നും സമൂഹ നന്മക്കായി മാത്രമാണെന്ന് ഉറപ്പാക്കണമെന്നുമാണ് ശാസ്ത്രലോകത്തിന്റെ ആവശ്യം. മനുഷ്യ നിര്‍ദ്ദേശങ്ങള്‍ക്ക് വിപരീതമായി പ്രവര്‍ത്തിക്കുന്ന എ.ഐ മോഡലുകളെ നിര്‍വീര്യമാക്കുന്ന കില്‍ സ്വിച്ചുകള്‍ ഡിസൈന്‍ സമയത്ത് തന്നെ ചേര്‍ക്കണമെന്ന ആവശ്യവും ഉയര്‍ന്നിട്ടുണ്ട്.

ഇന്ത്യന്‍ മാതൃക

എ.ഐ മോഡലുകളെ നിയന്ത്രിക്കാന്‍ ഇന്ത്യ സാങ്കേതിക-നിയമ സാധ്യതകള്‍ തേടുമെന്നാണ് കേന്ദ്രമന്ത്രി അശ്വനി വൈഷ്ണവ് പറയുന്നത്. ചില രാജ്യങ്ങള്‍ ഇക്കാര്യത്തില്‍ നിയമവശം മാത്രമാണ് പരിഗണിക്കുന്നത്. എന്നാല്‍ ഇതുമായി ബന്ധപ്പെട്ട സാങ്കേതിക വിദ്യ കൂടി വികസിപ്പിച്ചാല്‍ മാത്രമേ എ.ഐ സുരക്ഷ സാധ്യമാകൂ എന്നും അദ്ദേഹം ഫോബ്‌സ് ഇന്ത്യയുടെ അഭിമുഖത്തില്‍ പറഞ്ഞു.

Experts warn of risks if AI gains autonomy, including the possibility of disobeying humans or modifying its own code without control.

Read DhanamOnline in English

Subscribe to Dhanam Magazine

Related Stories

No stories found.
logo
DhanamOnline
dhanamonline.com