TEXAS – Mengenai perusahaan AI yang melatih model mereka, Elon Musk mengatakan mereka telah kehabisan data dan “kehabisan” jumlah pengetahuan manusia.
Oleh karena itu, pengusaha miliarder – yang juga memiliki bisnis kecerdasan buatan xAI – mengatakan bahwa dengan pesatnya perkembangan teknologi, ia memperkirakan perlunya menggunakan data “sintetis” untuk membangun dan melatih menciptakan sistem baru.
Data dari internet digunakan untuk melatih model AI seperti GPT-4o, model di balik chatbot ChatGPT, dan dengan mengumpulkan informasi ini mereka belajar mengenali pola yang memberi AI kemampuan untuk membuat prediksi.
Kini Musk telah memperingatkan bahwa menggunakan data yang dihasilkan oleh kecerdasan buatan untuk melatih model-model baru adalah “satu-satunya cara” untuk memecahkan masalah ini.
“Satu-satunya cara untuk menyelesaikannya adalah dengan menggunakan data agregat dimana… data tersebut akan menulis esai atau membuat esai, kemudian menilai sendiri dan… melalui proses belajar mandiri,” ujarnya langsung di jejaring sosial Anda. Platform X, sebelumnya dikenal sebagai Twitter, lapor The Guardian.
Ini bukanlah hal baru karena data sintetis telah digunakan oleh pemilik Meta Facebook dan Instagram untuk melatih model Llama AI mereka.
Demikian pula, Google dan OpenAI (yang menciptakan ChatGPT) juga menggunakan data sintetis dalam upaya AI mereka, sementara data AI juga digunakan dalam model Phi-4 Microsoft.
Namun, ada kekhawatiran yang diungkapkan oleh Musk dan pihak lain tentang bagaimana data sintetis dapat dipengaruhi oleh model AI yang menciptakan “ilusi”, sebuah istilah yang digunakan untuk menggambarkan hasil yang salah atau menyesatkan.
Berbicara langsung kepada Mark Penn, ketua grup periklanan Stagwell, dia menggambarkan episode tersebut sebagai “provokatif” karena mengandung halusinasi “bagaimana Anda tahu apakah itu… reaksi halusinasi atau reaksi nyata?”
Menurut Andrew Duncan, direktur kecerdasan buatan fundamental di Institut Alan Turing Inggris, komentar Musk muncul ketika sebuah makalah akademis memperkirakan bahwa data publik untuk model kecerdasan buatan mungkin akan habis pada awal tahun 2026.
Jika kita terlalu mengandalkan data agregat, kata Duncan, hal ini dapat menyebabkan “keruntuhan model”, yang berarti kualitas keluaran akan menurun seiring waktu dengan “pengembalian yang semakin berkurang”.
Jadi, ketika Anda mengakses chatbot AI, mereka cenderung memberikan informasi yang salah, menyesatkan, dan tidak imajinatif – sehingga tidak ideal bagi pengguna.
Selain itu, ia mencatat bahwa peningkatan konten AI di internet juga dapat berkontribusi terhadap hal ini karena model AI menyerap informasi tersebut.