OpenAI, perusahaan di balik ChatGPT, menghadapi pengawasan ketat atas restrukturisasinya dari entitas nirlaba murni menjadi model hibrida dengan cabang nirlaba. Pergeseran ini menimbulkan pertanyaan serius mengenai apakah perusahaan tersebut benar-benar dapat menjunjung misi awalnya: mengembangkan kecerdasan buatan “untuk kepentingan seluruh umat manusia.”
Awalnya didirikan sebagai organisasi nirlaba untuk melindungi teknologinya dari pengaruh investor, OpenAI kini telah menciptakan struktur di mana motif keuntungan dapat dengan mudah menutupi tujuan etis yang dinyatakan. Meskipun ada jaminan dari CEO Sam Altman bahwa pihak non-profit akan memandu organisasi nirlaba, para kritikus berpendapat bahwa ini adalah upaya terselubung untuk beroperasi seperti perusahaan AI lainnya.
Wilayah Hukum Abu-abu
Menurut Catherine Bracy, pendiri Tech Equity, pengaturan OpenAI mungkin ilegal menurut hukum California. Perusahaan ini pada dasarnya menantang para regulator untuk menegakkan peraturan nirlaba, mengingat leverage keuangan dan sumber daya hukumnya yang sangat besar. Bracy berpendapat bahwa OpenAI dengan sengaja melanggar kewajiban hukumnya dengan memprioritaskan keuntungan daripada misinya.
Yayasan yang diumumkan perusahaan senilai $180 miliar dipandang skeptis. Kritikus percaya bahwa yayasan ini akan berfungsi lebih sebagai badan tanggung jawab sosial perusahaan daripada entitas yang benar-benar independen, mengarahkan pendanaan untuk inisiatif yang menguntungkan posisi pasar OpenAI daripada altruisme sejati.
Kekuatan Dinamis
Permasalahan intinya adalah konflik kepentingan yang mendasar. Misi OpenAI bertentangan dengan tekanan yang melekat pada dunia nirlaba, yang mengutamakan “memenangkan” perlombaan AI dan memaksimalkan keuntungan. Tindakan perusahaan – termasuk kolaborasi dengan Departemen Pertahanan dan menangani interaksi chatbot yang kontroversial – menunjukkan bahwa keuntungan akan selalu melebihi pertimbangan etis.
Bracy menyoroti kemunafikan menerima pendanaan dari OpenAI sambil mempertanyakan integritasnya. Dia menyamakannya dengan industri tembakau, alkohol, dan soda, di mana penelitian yang didanai perusahaan pada dasarnya bersifat bias. Independensi yayasan OpenAI dipertanyakan, mengingat hubungan finansial langsungnya dengan lembaga nirlaba.
Gambaran Yang Lebih Besar
Situasi ini menggarisbawahi permasalahan yang lebih luas: kekuatan miliarder teknologi yang tidak terkendali dan kemampuan mereka untuk menghindari peraturan. Pertaruhan OpenAI bergantung pada asumsi bahwa regulator tidak akan menentang tindakannya, sebuah pertaruhan yang mencerminkan mentalitas “meminta maaf, bukan izin” di Silicon Valley.
Perdebatan mengenai masa depan OpenAI bukan hanya tentang satu perusahaan. Hal ini menyangkut kendali mendasar atas pengembangan AI dan apakah hal tersebut akan dipandu oleh keuntungan atau manfaat publik yang sesungguhnya. Jika restrukturisasi ini berhasil, maka hal ini akan menjadi preseden yang berbahaya, yang menunjukkan bahwa komitmen etika yang paling ambisius sekalipun dapat dikorbankan demi keuntungan finansial.
Perjuangan untuk menentukan arah OpenAI masih jauh dari selesai, dengan Bracy dan pihak lainnya mendesak akuntabilitas yang lebih besar dan evaluasi ulang mengenai bagaimana AI diatur. Masa depan teknologi ini – dan dampaknya terhadap umat manusia – berada dalam ketidakpastian.




























