રાજ્યની કોઈપણ અદાલતમાં ન્યાયિક નિર્ણયો લેવા કે જજમેન્ટ લખવા માટે AI નો ઉપયોગ કરી શકાશે નહીં.

ન્યાયિક પ્રક્રિયામાં ટેકનોલોજીના વધતા વ્યાપ વચ્ચે ગુજરાત હાઈકોર્ટે એક અત્યંત મહત્ત્વનો અને સીમાચિહ્નરૂપ પરિપત્ર બહાર પાડ્યો છે. હાઈકોર્ટની રજીસ્ટ્રી વિભાગ દ્વારા સ્પષ્ટ કરવામાં આવ્યું છે કે, રાજ્યની કોઈપણ અદાલતમાં ન્યાયિક નિર્ણયો લેવા કે જજમેન્ટ લખવા માટે આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI)નો ઉપયોગ કરી શકાશે નહીં.
ગુજરાત હાઈકોર્ટે જિલ્લા ન્યાયતંત્ર અને ન્યાયિક પ્રક્રિયામાં આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI) ના ઉપયોગને નિયંત્રિત કરવા માટે એક વ્યાપક નીતિ સત્તાવાર જાહેર કરી છે. હાઈકોર્ટે સ્વીકાર્યું છે કે AI એ ડેટા હેન્ડલિંગમાં ક્રાંતિ લાવી છે, પરંતુ સાથે જ ભારપૂર્વક જણાવ્યું છે કે ન્યાય આપવાનો અનોખો બંધારણીય આદેશ માનવીય અંતરાત્મા, નિષ્પક્ષતા અને વ્યક્તિગત જવાબદારીમાં જ મૂળભૂત હોવો જોઈએ. આ નવી નીતિમાં અત્યંત કડકપણે સબોર્ડિનેટ જ્યુડિશરીને અત્યંત કડક રીતે કહેવાયું છે કે, ટેકનોલોજી એક મર્યાદિત સંશોધન સાધન છે, ન્યાયિક નિર્ણય લેવામાં તેને ક્યારેક માનવીય ક્ષમતાનો પર્યાય બનાવી ન લેવાય.
નવી માર્ગદર્શિકા હેઠળ, કોઈપણ મહત્ત્વપૂર્ણ ન્યાયિક પ્રક્રિયામાં AI નો ઉપયોગ સખત રીતે પ્રતિબંધિત છે. આમાં ચુકાદાઓનું ડ્રાફ્ટિંગ, ઓર્ડર તૈયાર કરવા, જામીન અંગેના વિચારો અને સજાની પ્રક્રિયાનો સમાવેશ થાય છે. વધુમાં, કોર્ટે પુરાવાઓના વર્ગીકરણ અથવા મૂલ્યાંકન, વિશ્વસનીયતાની ચકાસણી અને જુબાનીઓના સારાંશ માટે AI ના ઉપયોગ પર પ્રતિબંધ મૂક્યો છે. આ નીતિ એ વાત પર પ્રકાશ પાડે છે કે ટેકનોલોજી પર વધુ પડતો નિર્ભર રહેવાથી પૂર્વગ્રહ અને ‘હેલ્યુસિનેશન’ (ભ્રમણા) નું જોખમ રહેલું છે, જ્યાં AI તદ્દન કાલ્પનિક કાનૂની સંદર્ભો અથવા કાયદાઓ રજૂ કરી શકે છે.
સંસ્થાકીય અખંડિતતા જાળવવા માટે, હાઈકોર્ટ ફરજિયાત બનાવે છે કે કોઈપણ AI-જનરેટેડ આઉટપુટનું માનવીય દેખરેખ હેઠળ સખત નિરીક્ષણ થવું જોઈએ. દરેક ન્યાયાધીશ તેમના નામે જારી કરાયેલા દરેક આદેશ માટે વ્યક્તિગત રીતે જવાબદાર રહે છે અને વ્યવસાયિક બેદરકારી અથવા ગેરવર્તણૂક માટે AI ના ઉપયોગને બચાવ તરીકે રજૂ કરી શકાશે નહીં. કાનૂની સંશોધન માટે, અધિકારીઓને કાનૂની સિદ્ધાંતો મેળવવા અથવા પૂર્વાધિકારો ઓળખવા માટે AI નો ઉપયોગ કરવાની મંજૂરી છે, પરંતુ આવા કાર્યને માન્ય પ્રાથમિક જર્નલ સાથે સરખાવીને ચકાસવું આવશ્યક છે.
ડેટા પ્રોટેક્શન એ આ નવી નીતિનો મુખ્ય સ્તંભ છે, જે ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન એક્ટ, 2023 સાથે સુસંગત છે. પેન્ડિંગ ફોજદારી બાબતોમાં સાક્ષીઓના નામ, આરોગ્ય સંબંધિત ડેટા અથવા ગોપનીય કાનૂની વ્યૂહરચના જેવી સંવેદનશીલ માહિતી પબ્લિક AI ટૂલ્સમાં દાખલ કરવા પર સંપૂર્ણ પ્રતિબંધ છે. આ નિયમોનું કોઈપણ ઉલ્લંઘન સત્તાવાર ગેરવર્તણૂક માનવામાં આવશે, જે લાગુ પડતા સેવા નિયમો હેઠળ શિસ્તભંગના પગલાં નોંતરી શકે છે.
આ નીતિ ચેતવણી આપે છે કે AI સિસ્ટમ્સ લિંગ, ધર્મ, જાતિ અથવા સામાજિક-આર્થિક સ્થિતિ સંબંધિત પૂર્વગ્રહોને પ્રોત્સાહન આપી શકે છે. આનો સામનો કરવા માટે, ગુજરાત સ્ટેટ જ્યુડિશિયલ એકેડમી નિયમિત તાલીમ સત્રોનું આયોજન કરશે જેથી તમામ વપરાશકર્તાઓ AI સાક્ષરતાનું ઉચ્ચ સ્તર જાળવી શકે અને અપ્રમાણિત ડિજિટલ આઉટપુટના જોખમો પ્રત્યે સતર્ક રહે.





