Liputan6.com, Jakarta - Biro Investigasi Federal Amerika Serikat (FBI) baru-baru ini merilis dua foto di X, yang terlihat buram dari seseorang individu yang sedang dicari terkait kasus penembakan aktivis sayap kanan, Charlie Kirk.
Harapannya, publik dapat membantu mengidentifikasi sosok tersebut. Namun, alih-alih membantu, publik justru memicu fenomena berbahaya di dunia maya.
Tak lama setelah foto-foto itu diunggah, warganet langsung ramai-ramai mengunggah versi gambar yang telah “ditingkatkan” menggunakan teknologi AI Upscaling.
Foto yang awalnya pecah dan penuh noise diubah menjadi potret beresolusi tinggi yang terlihat jelas.
Padahal, mengutip The Verge, Sabtu (13/9/2025), cara kerja alat kecerdasan buatan (AI) yang digunakan untuk meningkatkan foto itu bukanlah mengungkap detail asli tersembunyi, tapi hanya melakukan perkiraan terhadap apa yang mungkin ada di dalam gambar.
Proses “menebak-nebak” ini sering kali menghasilkan informasi visual yang tampak meyakinkan dan bisa berpotensi salah sama sekali.
Cara Kerja AI Upscaling yang Berisiko
Penting untuk dipahami bahwa teknologi AI upscaling atau peningkatan gambar berbasis AI tidak bekerja layaknya adegan di film-film fiksi ilmiah.
Alih-alih mempertajam detail asli yang ada, justru AI mengisi kekosongan piksel dengan menambahkan data baru yang dibangun dari pola yang telah dipelajarinya melalui jutaan gambar lain. Proses ini bisa dibilang lebih mirip "berimajinasi" ketimbang "menganalisis".
Sejumlah insiden di masa lalu bahkan sudah membuktikan betapa tidak akuratnya hasil yang ditampilkan teknologi ini.
Misalnya, pernah ada insiden di mana foto resolusi rendah Presiden Barack Obama diubah oleh AI menjadi potret seorang pria kulit putih.
Dalam contoh lain, AI menambahkan benjolan pada kepala Presiden Donald Trump, padahal benda tersebut sama sekali tidak ada di foto aslinya.
Hasil 'Nyeleneh' Banjiri Media Sosial
Seperti yang sudah dibahas sebelumnya, unggahan asli FBI di platform X langsung diserbu warganet yang mencoba "memperjelas" foto buram tersebut.
Ada yang dibuat lewat bot Grok milik X, dan ada juga foto-foto lainnya yang dihasilkan oleh ChatGPT.
Namun, hasil yang muncul justru sangat nyeleneh, beragam, dan jauh dari kata konsisten,
Salah satu hasil yang paling nyeleneh bahkan mengubah total kemeja yang dikenakan orang tersebut dan memberinya dagu super runcing, tampilannya membuat jadi mirip karakter meme di internet, yaitu "Gigachad".
Fenomena ini menjadi bukti nyata bahwa gambar-gambar hasil AI sama sekali tidak bisa dijadikan pegangan akurat, meskipun niat awalnya adalah untuk membantu proses identifikasi.
Niat Membantu Bisa Berujung Fitnah
Meski ada sebagian warganet yang benar-benar berniat tulus membantu FBI dalam penyelidikan, tak sedikit juga yang melakukannya hanya untuk cari sensasi demi menjadi pusat perhatian, mengejar like, atau berharap kontennya di-repost.
Masalahnya, langkah seperti ini justru bisa sangat berbahaya karena berpotensi memicu salah identifikasi.
Ketika gambar rekaan AI yang terlihat “meyakinkan” menyebar luas, publik bisa saja dengan mudah menuduh orang yang sama sekali tidak bersalah hanya karena wajahnya kebetulan mirip dengan hasil “imajinasi” AI.
Inilah alasan mengapa jangan pernah memperlakukan gambar hasil AI sebagai bukti kuat dalam perburuan, sebab risikonya bisa jauh lebih besar daripada manfaat yang sebenarnya ingin dicapai.