discussion-on-open-source-ai-models-in-india

ભારતમાં ખુલ્લા સ્ત્રોતના એઆઇ મોડલ્સના વિકાસની ચર્ચા

નવી દિલ્હી, 26 નવેમ્બર 2023: OpenAI, Microsoft અને Google દ્વારા AI મોડલ્સના વિકાસમાં ખુલ્લા સ્ત્રોતના મોડલ્સની આવશ્યકતા અંગે ચર્ચા કરવામાં આવી છે. Ozonetelના CTO ચૈતન્ય ચક્કરેddi દ્વારા રજૂ કરાયેલ 'ચંદામામા કથાલુ' નામના ટેલુગુ AI વાર્તા કહેનારની ઉદાહરણ સાથે, ભારતના ડેવલપર્સ માટે નવા અવસરોની શોધ કરવામાં આવી છે.

AI મોડલ્સના ખુલ્લા સ્ત્રોતની મહત્વતા

AI મોડલ્સના ખુલ્લા સ્ત્રોતનો વિકાસ, ખાસ કરીને OpenAI જેવી કંપનીઓની પ્રભાવશાળી સ્થિતિ સામે, ભારતના ડેવલપર્સ માટે એક નવી તક પ્રદાન કરે છે. ચૈતન્ય ચક્કરેddiના મતે, OpenAI ના મોડલ્સની સફળતાએ ડેવલપર્સને વધુ ખુલ્લા સ્ત્રોતના મોડલ્સ બનાવવાના પ્રેરણા આપી છે. તેમણે જણાવ્યું કે, "જ્યારે OpenAI એક મોડલ રજૂ કરે છે અને ChatGPT સફળ થાય છે, ત્યારે અમે પ્રશ્ન કરીએ છીએ કે શું વિશ્વને નુકસાન થશે કારણ કે બધું એક જગ્યામાં અને માલિકી મોડમાં છે."

આ ચર્ચામાં, મેટા ઇન્ડિયાના નીતિ નિર્દેશક સુનિલ અબ્રાહમ, મોઝિલ્લાના વૈશ્વિક જાહેર નીતિના નિર્દેશક ઉદ્ધવ તિવારી, અને ઓપન જસ્ટિસ ફોર એઆઇની સહ-નેતા સ્મિતા ગુપ્તા સહિતના વિશેષજ્ઞોએ ભાગ લીધો હતો. તેમણે ખુલ્લા સ્ત્રોતના મોડલ્સના વિકાસમાં પારદર્શકતાની જરૂરિયાત પર ભાર મૂક્યો.

સૂચિત રીતે, મેટા કંપનીએ AI માટે ખુલ્લા સ્ત્રોતના અભિગમને અપનાવવાની દિશામાં એક મહત્વપૂર્ણ ભૂમિકા ભજવી છે. સુનિલ અબ્રાહમના જણાવ્યા પ્રમાણે, "અમારે 615 ખુલ્લા સ્ત્રોતના AI પ્રોજેક્ટ્સ છે જે વિવિધ લાઇસન્સ હેઠળ પ્રકાશિત થયા છે."

તેમણે વધુમાં જણાવ્યું કે, "કેટલાક કેસોમાં, તાલીમના ડેટા ઉપલબ્ધ કરી શકાય છે, પરંતુ મોટા ભાષા મોડલ્સ માટે મોટા ભાગે તે ઉપલબ્ધ નથી."

ખુલ્લા સ્ત્રોતના AI મોડલ્સની વ્યાખ્યા

ખુલ્લા સ્ત્રોતના AI મોડલ્સની વ્યાખ્યા પર ચર્ચા દરમિયાન, Open Source Initiative (OSI) દ્વારા આપવામાં આવેલી વ્યાખ્યાને ધ્યાનમાં લેવામાં આવ્યું. OSI અનુસાર, ખુલ્લા સ્ત્રોતના AI મોડલ્સ એવા હોવા જોઈએ જે નીચેના માપદંડોને અનુરૂપ હોય:

  • કોઈપણ હેતુ માટે સિસ્ટમનો ઉપયોગ કરવો અને મંજૂરી માંગવાની જરૂર નથી.
  • સિસ્ટમ કેવી રીતે કાર્ય કરે છે તે અભ્યાસ કરવો અને તેની ઘટકોની તપાસ કરવી.
  • કોઈપણ હેતુ માટે સિસ્ટમને સુધારવી, જેમાં તેની આઉટપુટમાં ફેરફાર કરવો પણ સામેલ છે.
  • સિસ્ટમને અન્ય લોકો માટે ઉપયોગ કરવા માટે શેર કરવું, ફેરફારો સાથે કે વિના, કોઈપણ હેતુ માટે.

મેટાના લામા મોડલ OSIના ધોરણોને પૂર્ણ નથી કરતાં, કારણ કે તે તાલીમના ડેટાને ઍક્સેસ કરવાની મંજૂરી આપતું નથી અને 700થી વધુ માસિક સક્રિય વપરાશકર્તાઓવાળા કંપનીઓ માટે વ્યાવસાયિક ઉપયોગ પર કેટલીક મર્યાદાઓ મૂકે છે.

સુનિલ અબ્રાહમએ જણાવ્યું કે, "જો તમારી નિયમનકારી ફરજાઓ બદલાય છે, તો જાહેર સ્ત્રોતના AI મોડલ્સની વ્યાખ્યા પર સંમતિ હોવી જરૂરી છે."

ખુલ્લા સ્ત્રોતના AI મોડલ્સના વિકાસમાં અડચણો

ખુલ્લા સ્ત્રોતના AI મોડલ્સના વિકાસમાં એક મોટા પડકાર તરીકે યોગ્ય લાઇસન્સની શરતોને સમજવું છે. ચૈતન્ય ચક્કરેddi જણાવ્યું કે, "છેલ્લા છ મહિના સુધી, SFLC અને મેં એ ડેટાસેટ અને AI મોડલને જાહેર કરવા માટે યોગ્ય લાઇસન્સ શોધવા માટે પ્રયાસ કર્યો છે.

તેમણે જણાવ્યું કે, "જો કોઈ કંપની પોતાના મોડલને ખુલ્લા સ્ત્રોતમાં મૂકવા માંગે છે, તો તાલીમના ડેટાની યાદી જાહેર કરવી પડતી હોય છે, જે તેમને કાયદેસર સમસ્યાઓમાં દખલ કરી શકે છે.

ઉદ્ધવ તિવારીએ જણાવ્યું કે, "તેઓ જે ડેટા પર તેમના મોડલ્સ તાલીમ ધરાવે છે, તેની યાદી જાહેર કરવી તેમને કોર્ટમાં દખલ કરી શકે છે."

સ્મિતા ગુપ્તાએ જણાવ્યું કે, "એક ખુલ્લા સ્ત્રોતના AI મોડલના વિકાસમાં એક મહત્વપૂર્ણ ઉદાહરણ એ છે કે 'આલાપ', જે કાયદા અને પેરલેગલ સહાયક તરીકે કાર્ય કરે છે."

ખુલ્લા સ્ત્રોતના AI મોડલ્સના જોખમો

ખુલ્લા સ્ત્રોતના AI મોડલ્સના જોખમો વિશે ચર્ચા કરતાં, ઉદ્ધવ તિવારીએ જણાવ્યું કે, "ખુલ્લા સ્ત્રોતના AI મોડલ્સને બંધ મોડલ્સની તુલનામાં વધુ જોખમોનો સામનો કરવો પડે છે."

તેમણે જણાવ્યું કે, "ખુલ્લા સ્ત્રોતના AI મોડલ્સમાં સામગ્રીનું સંચાલન ન હોવું એ એક મહત્વપૂર્ણ જોખમ છે. "

સ્મિતા ગુપ્તાએ જણાવ્યું કે, "વ્યવસ્થિત માહિતીની ગેરમુખ્યતા અને વ્યક્તિગત ઓળખી શકાય તેવી માહિતી (PII) ને સુરક્ષિત રાખવું મહત્વપૂર્ણ છે."

મેટાના સુનિલ અબ્રાહમએ કહ્યું કે, "AI જનરેટેડ હેલ્યુસિનેશન્સને વિશ્વસનીય રીતે એક બેકડોર અથવા ફીચર સાથે જોડવું મુશ્કેલ છે."

તેમણે જણાવ્યું કે, "AI એક 'કાળો બોક્સ' છે જેમાં કોઈ વૈજ્ઞાનિક સિદ્ધાંત નથી જે દર્શાવે છે કે ટેકનોલોજી કેમ કાર્ય કરે છે."

Latest News

Read Gujarat Bhaskar ePaper

Click here to read

Follow us