TRIBUNNEWS.COM – Dunia teknologi diguncang oleh kematian tragis Suchir Balaji, 26, mantan peneliti OpenAI yang terkenal membocorkan praktik perusahaan.
Suchir Balaji ditemukan tewas di apartemennya di San Francisco pada 26 November 2024. Kematian Balaji dinyatakan sebagai bunuh diri oleh pemeriksa medis kota, tanpa ada bukti adanya pelanggaran.
Polisi San Francisco mengatakan Suchir Balaji bunuh diri. Namun kematian remaja cerdas berusia 26 tahun ini masih menjadi misteri.
Hal ini karena Suchir Balaji sebelumnya telah menyampaikan kekhawatiran bahwa raksasa AI OpenAI melanggar dugaan pelanggaran etika dan secara ilegal menggunakan materi berhak cipta untuk pelatihan keterampilan, termasuk ChatGPT.
Insiden memilukan ini sekali lagi menarik perhatian pada kritik eksplisit Balaji terhadap kecerdasan buatan (AI) dan dilema etikanya. Selami lebih dalam kepribadian Suchir Balaji
Suchir Balaji menjadi sorotan setelah menyampaikan kekhawatiran tentang kecerdasan buatan generatif dan dugaan penyalahgunaan konten berhak cipta, serta memperingatkan masalah etika dalam industri yang ia bantu bangun.
Kepala Kantor Pemeriksa Medis San Francisco mengatakan penyelidikan awal menetapkan pria keturunan India-Amerika berusia 26 tahun itu meninggal karena bunuh diri.
Polisi belum mendeteksi adanya penipuan hingga saat ini. Suchir Balaji. (postingan pertama)
Menariknya, pada tanggal 25 November, sehari sebelum polisi menemukan jenazah Balaji, nama mantan karyawan OpenAI diajukan ke pengadilan dalam kasus hak cipta yang diajukan terhadap startup tersebut.
OpenAI kemudian setuju untuk meninjau arsip Balaji, yang menimbulkan masalah hak cipta yang serius, TechCrunch melaporkan.
Suchir Balaji adalah salah satu arsitek utama ChatGPT, salah satu teknologi paling inovatif di abad ke-21.
Berita tentang DeepMind, startup yang membangun AI yang dapat memainkan game klasik Atari secara mandiri seperti Space Invaders, Pong, dan Breakout, membuatnya bersemangat.
“Saya pikir kecerdasan buatan dapat digunakan untuk memecahkan masalah yang sulit diselesaikan, seperti mengobati penyakit dan mencegah penuaan,” katanya kepada New York Times.
“Saya rasa kita bisa menemukan ilmuwan yang bisa membantu kita memecahkan masalah ini.
Saat mempelajari ilmu komputer di Universitas California, Berkeley, Suchir Balaji mulai mengeksplorasi ide untuk mengembangkan sistem matematika yang disebut jaringan saraf yang dapat mempelajari keterampilan dengan menganalisis data digital.
Pada tahun 2018, ia juga bergabung dengan OpenAI sebagai pekerja magang, dan resmi bergabung dengan perusahaan AI pada tahun 2020.
Pada awal OpenAI, Balaji mengerjakan WebGPT dan kemudian di tim persiapan GPT-4.
Menurut sumber, Balaji melakukan penelitian untuk mengembangkan jaringan saraf yang membutuhkan waktu berbulan-bulan untuk menganalisis hampir semua teks bahasa Inggris di internet. Saat pertama kali bergabung dengan OpenAI, Suchir Balaji bekerja di WebGPT dan kemudian di tim persiapan GPT-4.
“Proyek penelitian biasanya memungkinkan Anda belajar dari data apa pun,” kata Balaji. “Itulah pemikiran saya saat itu.
Kemudian OpenAI merilis ChatGPT. Didukung pertama kali oleh GPT-4 versi lama dan kemudian oleh GPT-4 itu sendiri, chatbot menjadi berita utama dan menjadi sangat populer. Dan tidak butuh waktu lama baginya untuk menjadi penghasil uang.
Pada bulan Agustus 2024, Suchir Balaji memutuskan untuk meninggalkan OpenAI di tengah meningkatnya kekhawatiran bahwa teknologi yang ia bantu kembangkan pada akhirnya akan lebih banyak merugikan daripada menguntungkan.
“Jika Anda yakin dengan apa yang saya yakini, Anda harus keluar dari perusahaan,” katanya kepada surat kabar tersebut. Hal inilah yang menjadi keprihatinan yang diungkapkan Suchir Balaji.
Balaji, mantan karyawan OpenAI yang telah bekerja di OpenAI selama lebih dari empat tahun, meninggalkan perusahaan dengan alasan kekhawatiran bahwa raksasa AI tersebut telah menggunakan data berhak cipta tanpa izin yang sesuai.
Dalam sebuah wawancara dengan The New York Times, dia menjelaskan bagaimana sistem seperti GPT-4 belajar dengan membuat salinan lengkap dari data tempat mereka dilatih.
Setelah data direplikasi, perusahaan seperti OpenAI dapat melatih sistem untuk menghasilkan salinan yang sama atau keluaran yang benar-benar baru. Suchir Balaji adalah salah satu arsitek utama ChatGPT, salah satu teknologi paling inovatif di abad ke-21. (Tertaut)
Kenyataannya adalah perusahaan mengajarkan sistem untuk melakukan sesuatu di antara keduanya.
“Output yang dihasilkan tidak sama persis dengan input yang sudah ada, namun pada prinsipnya juga bukan hal baru,” kata Balaji.
Dia memperingatkan bahwa alat seperti ChatGPT dan chatbot serupa dapat menimbulkan risiko bagi pembuat konten, bisnis, dan layanan internet yang awalnya menghasilkan data yang digunakan untuk melatih bot AI.
Peringatan Suchir Balaji mencerminkan semakin banyak orang yang menggugat perusahaan AI, termasuk OpenAI, menuduh mereka menggunakan materi berhak cipta untuk pendidikan teknologi secara ilegal.
Ini termasuk pemrogram komputer, artis, label rekaman, penulis buku, dan media.
Suchir Balaji juga menunjukkan masalah yang lebih besar. Dia mengatakan teknologi AI semakin menggantikan layanan internet tradisional.
Teknik ini sering kali menghasilkan informasi palsu atau fiktif, sebuah fenomena yang oleh para peneliti disebut “halusinasi”. Menurutnya, Internet semakin buruk.
Namun OpenAI membantah klaimnya.
“Kami menggunakan data yang tersedia untuk umum untuk membangun model AI dengan cara yang dilindungi oleh penggunaan wajar dan kebijakan terkait serta didukung oleh preseden hukum yang sudah lama ada dan diterima secara luas.”
“Kami percaya prinsip-prinsip ini adil bagi para pencipta, penting bagi para inovator, dan penting bagi daya saing Amerika,” kata perusahaan itu dalam sebuah pernyataan.
Dalam postingan bulan Oktober, X Balaji menyatakan keprihatinannya tentang penggunaan materi berhak cipta oleh perusahaan AI generatif.
Dia menulis, “Awalnya, saya tidak tahu banyak tentang hak cipta, penggunaan wajar, dll., tapi saya menjadi penasaran setelah melihat semua tuntutan hukum yang diajukan terhadap GenAI.”
Saat Balaji menyelidiki masalah ini lebih lanjut, dia mencapai kesimpulan yang mengejutkan.
“Penggunaan wajar tampaknya tidak menjadi pembelaan bagi banyak produk AI generatif,” tambahnya.
Meskipun banyak mantan karyawan OpenAI yang menyuarakan keprihatinan tentang budaya keamanan startup, Balaji adalah salah satu dari sedikit yang secara langsung mempertanyakan data yang digunakan untuk melatih model.
Tweet terakhirnya dan postingan blog berikutnya mendapat perhatian baru setelah kematiannya, sehingga memicu seruan untuk peraturan yang lebih kuat dan transparansi yang lebih besar dalam industri kecerdasan buatan yang berkembang pesat.
Sumber: First Post dan berbagai sumber