Ahli Beberkan Bahaya Terbesar Video Kecerdasan Buatan Sora

Ahli Beberkan Bahaya Terbesar Video Kecerdasan Buatan Sora

New Jersey – Para ahli telah mengeluarkan peringatan terhadap generator video Sora OpenAI, yang menyatakan bahwa hal itu dapat menimbulkan risiko keamanan yang besar.

Kecerdasan buatan adalah salah satu teknologi paling canggih dan menakutkan yang muncul dalam beberapa tahun terakhir, dan hal ini dapat membahayakan pekerjaan dan gelar sarjana karena kemampuannya yang luar biasa.

Sora adalah alat teks-ke-video yang dikembangkan oleh perusahaan kecerdasan buatan OpenAI yang memungkinkan pengguna memasukkan perintah teks dan menerima video yang dihasilkan oleh teknologi tersebut.

Namun para ahli telah memperingatkan bahwa realismenya adalah masalah keamanan, karena ia memiliki kemampuan untuk membuat gambar palsu berkualitas tinggi yang dapat dengan mudah menipu orang.

Pembuat video Sora mampu membuat video berdurasi 60 detik hanya berdasarkan perintah yang diberikan oleh pengguna. Perintah dapat berupa teks atau teks yang digabungkan dengan gambar.

Sora bisa saja membuat video dengan banyak kesalahan, seperti kucing dengan tiga kaki depan, namun para ahli memperingatkan bahwa hal itu bisa membawa kita lebih dekat ke dunia di mana sulit membedakan antara yang asli dan yang palsu.

Arvind Narayanan dari Universitas Princeton memperingatkan bahwa dalam jangka panjang, “kita harus menemukan cara lain untuk beradaptasi sebagai masyarakat.”

Sebagaimana dikemukakan oleh para ahli lainnya, kemunculan konten yang dihasilkan oleh AI di dunia maya memberikan beban tambahan bagi manusia untuk menentukan mana yang fakta dan fiksi.

“Kita harus bertanya apa yang terjadi sekarang,” kata penulis Poynter dan pendiri News Products Alliance, “Kita harus melakukannya untuk teks. Ini untuk video, dan itu memberikan banyak tanggung jawab pada konsumen yang sebelumnya tidak ada. .

Di situsnya, pencipta Sora, OpenAI, membahas masalah keamanan dengan Sora.

“Kami mengambil sejumlah langkah keamanan penting sebelum menerapkan Sora dalam produk OpenAI,” situs web perusahaan menyatakan, “Kami adalah anggota Tim Merah – pakar domain di berbagai bidang seperti misinformasi, konten kebencian, dan bias. menguji modelnya. melawan rintangan.

Perusahaan juga mengatakan pihaknya berencana untuk menggunakan fitur keamanan yang sama yang saat ini ada pada pembuat gambarnya, yang disebut Dall-E, dengan perintah teks untuk memblokir “kekerasan ekstrem, konten seksual, gambar kebencian, kemiripan selebriti, atau alamat IP individu.”

Namun, beberapa pihak di industri berpendapat bahwa AI dilatih berdasarkan data manusia, yang berarti AI memiliki bias yang sama dengan manusia.

“Ada bias dalam masyarakat, dan bias tersebut tercermin dalam sistem ini,” kata Christian Hammond, profesor ilmu komputer di Northwestern University.

Comments

No comments yet. Why don’t you start the discussion?

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *