Minggu, 12 Maret 2017 | 15:38 WIB
Stephen Hawking, di kota New York, 2016. Hawking dikenal sebagai penemu teori Big Bang dan Black Hole, dari bukunya The Biref History of Time. Getty Images/Bryan Bedder
TEMPO.CO, Jakarta –Stephen Hawking, ahli fisika terkenal dunia telah berbicara tentang bahaya-bahaya kecerdasan buatan atau artificial intelligent (AI) di masa lalu. Dia meyakini manusia perlu membangun cara untuk mengidentifikasi ancaman secara cepat sebelum hal itu berpeluang meningkat. “Sejak peradaban dimulai, agresi telah berguna karena memiliki keuntungan bertahan hidup yang pasti,” katanya baru-baru ini.
Agresi telah terprogram dalam gen manusia oleh evolusi Darwin. Sekarang, bagaimana pun, teknologi telah maju cepat dan agresi ini mungkin menghancurkan kita semua dengan perang nuklir atau biologis. “Kita harus mengendalikan warisan insting ini dengan logika dan akal,”ujar Hawking.
Hawking sebelumnya mengatakan robot super cerdas mungkin tidak menghancurkan umat manusia karena alasan-alasan jahat dan keji, tapi karena manusia membuat program yang buruk dari ketidakmampuannya sendiri. Risiko nyata dengan AI bukan kejahatan tapi kompetensi. “AI yang super cerdas akan sangat baik mencapai tujuan-tujuannya. Dan jika tujuan tersebut tidak selaras dengan manusia, maka kita berada dalam kesulitan,” kata Hawking.
Dengan kata lain, robot masa depan mungkin tidak berniat menghancurkan kemanusiaan. Tapi mungkin melakukannya secara kebetulan atau karena buruknya rancangan oleh manusia.
THE BLAZE | HOTMA SIREGAR
Baca Juga:
Stephen Hawking: Teknologi Akan Menghancurkan Kelas Menengah