ChatGPT Yaratıcısı Sam Altman’ın altı ülkeyi kapsayan turunun bir parçası olarak Hindistan’da olduğu endişelerinin arttığı bir dönemde ortaya çıktı. Sadece birkaç gün önce Altman, “bu hafta İsrail, Ürdün, Katar, Birleşik Arap Emirlikleri, Hindistan ve Güney Kore’yi ziyaret etmekten heyecan duyuyorum!” diyerek tweet atmıştı. ChatGPT dünya genelinde yetenekleriyle şaşırtırken, yapay zeka etrafındaki koruma önlemleriyle ilgili tartışmaları da beraberinde getirdi. Son zamanlarda sadece bir örnek olarak Telangana, Hindistan’daki sivil hizmet sınavlarında hile yapmak için ChatGPT kullanıldı ve bu, yapay zekanın hile yapmak için kullanıldığı ülkelerden biri olabilecek ilk örneklerden biri haline geldi. Öğrenciler tarafından yapılan başka bir hile olayı da Amerika Birleşik Devletleri’nde açığa çıkarıldı.
OpenAI’nın kurucusunun, Haziran ayının 8’inde bugün Hindistan’da Başbakan Modi ve diğer üst düzey hükümet yetkilileriyle görüşmesi bekleniyor. AI’nın yarattığı paradigmaya ve küresel sosyo-ekonomik senaryoya etkisine değinen Altman, “Değişikliğin farklı olan şeyi bu sefer hızıdır. Bu, sosyo-ekonomik sözleşmede ve hükümetlerin (bozulmaya) karşı düşünme şeklinde bir değişiklik gerektirecek.” dedi.
Hükümet yetkilileriyle yapacağı toplantıların yanı sıra, Altman IIIT Delhi tarafından düzenlenen bir etkinlikte de konuşacak ve ChatGPT’nin arkasındaki beyne dair bilgi almak için insanlar çoktan kayıt yaptırdılar.
Altman’ın Hindistan ziyareti, ülkenin yapay zeka ve dijital alanın kullanımı etrafında koruma önlemleri almak için mevcut İT Kanunu’nu değiştirecek olan Dijital Hindistan çerçevesini hazırladığı bir döneme denk geliyor. Hindistan’ın G20 başkanı olarak rolünü kabul ederken, Altman’a göre, Hindistan küresel yapay zeka düzenlemelerinin şekillenmesinde anahtar rol oynayabilir.
Ancak, OpenAI CEO’suna göre, yapay zeka tarafından oluşturulan tehlike konusunda farklı bir görüşü var. “Mevcut yapay zeka sistemlerinin tehlikeli olduğunu düşünmüyorum. GPT4 varoluşsal bir risk oluşturmaz, ancak (o) tamamen farklı bir şey olabilir.” dedi.