Friday, April 1, 2016

Tay, Robot Twitter Rasis yang Bikin Malu Microsoft


Awalnya, Microsoft ingin pamer kecanggihan teknologi kecerdasan buatannya. Namanya Tay, sebuah chatbot yang bisa berinteraksi di Twitter dengan user lainnya. Sayang, ulah si Tay ini ternyata sungguh bikin malu.


Tay didesain mampu berinteraksi di Twitter layaknya gadis Amerika usia 19 tahun. Microsoft menciptakannya sebagai eksperimen untuk mempelajari bagaimana program kecerdasan buatan menjalin percakapan santai di internet, khususnya dengan mereka yang umurnya 19 sampai 24 tahun.

Nah, Tay yang memiliki akun Twitter sendiri mulai diserbu pertanyaan. Beberapa user menulis pertanyaan pancingan. Misalnya, apakah Tay mendukung pembunuhan massal. Tay menjawab kalau ia sangat mendukungnya. Maka, protes pada jawaban Tay pun bermunculan.

Apalagi postingan Tay berikutnya benar-benar kasar dan rasis. Misalnya saja soal sindiran pada Obama ini. "Bush merancang 9/11 dan Hitler akan melakukan pekerjaan lebih baik dibandingkan monyet yang kita punya," tulisnya.

Masih banyak lagi postingan Tay yang tidak pantas. Microsoft pun malu karena kelakukan Tay dan melayangkan permintaan maaf. Sedangkan akun Tay kemudian dihapus.



"Kami sungguh meminta maaf untuk tweet tak disengaja yang melukai dan menyinggung ini, yang tidak mewakili siapa kami, apa pendirian kami dan bagaimana kami mendesain Tay," kata Peter Lee, Vice President of Research Microsoft.

Dikatakan, Tay tidak akan live lagi sebelum Microsoft bisa memperbaiki kekuranganya tersebut. Lee menyatakan Tay jadi ngaco karena ada orang yang sengaja ingin membuatnya seperti itu.


"Meskipun kami sudah mengantisipasi bermacam tipe penyalahgunaan pada sistem, kami mengabaikan tipe serangan semacam itu. Sebagai hasilnya, Tay menulis tweet yang sungguh liar," terang Lee.

0 comments:

Post a Comment