Startup Inggris Kembangkan Pendeteksi Berita Palsu

 Startup Inggris Kembangkan Pendeteksi Berita Palsu

SEBUAH Startup Inggris, Fabula AI (Artificial Intelligence), menempatkan dirinya sebagai kecerdasan buatan yang siap  membantu mengatasi krisis disinformasi berita palsu yang terus mengguncang dunia media sosial dengan skandal antisosial.

Krisis disinformasi ini bahkan juga menjadi keprihatinan pendiri Facebook, Mark Zuckerberg, yang mana dia  telah mengeluarkan peringatan tentang kemampuan teknologi AI untuk memenuhi tantangan manusia yang kompleks, kontekstual, berantakan dan inheren dalam memahami dengan benar setiap pesan yang mungkin dikirimkan oleh pengguna media sosial, dengan niat baik atau sisi buruknya.

“Butuh bertahun-tahun untuk sepenuhnya mengembangkan sistem ini,” kata pendiri Facebook  dalam sebuah surat terbuka yang membahas skala tantangan memoderasi konten pada platform yang gemuk  dengan miliaran pengguna seperti Facebook. “Ini secara teknis sulit, karena dibutuhkan AI yang dapat membaca dan memahami berita.”

Tetapi bagaimana, jika AI tidak perlu membaca dan memahami berita untuk mendeteksi apakah itu benar atau salah?

Sebuah langkah  maju yang dicapai Fabula, dimana ia  telah mematenkan apa yang dijulukinya sebagai “kelas baru” algoritma pembelajaran mesin untuk mendeteksi “berita palsu” – di bidang yang muncul “Geometric Deep Learning” (Pembelajaran Mendalam Geometris),  di mana kumpulan data yang akan dipelajari begitu besar dan kompleks sehingga teknik pembelajaran mesin tradisional harus berjuang keras untuk menemukannya pada ruang ‘non-Euclidean’ ini.

Apa yang dilakukan Fabula beranjak dari keprihatinannya terhadap maraknya berita palsu. Bagaimanapun, berita palsu telah merusak demokrasi, dan ia juga memungkinkan penipuan besar-besaran, dan  dapat menghasut tindak kekerasan.

Berita palsu  juga melanggar hak asasi manusia yang mendasar atas pilihan bebas, karena ia membantah pengambilan keputusan berdasarkan informasi. Kalangan pemerintah dan publik menjadi semakin khawatir – dan tekanan sedang diterapkan pada nama-nama terbesar dalam teknologi untuk solusi. Saat ini, satu-satunya solusi adalah tinjauan manusia – lambat, rawan kesalahan dan sangat mahal.

Untuk menyelesaikan masalah berita palsu, Fabula AI mengembangkan (dan telah mematenkannya) Geometric Deep Learning (Pembelajaran Geometris) – sebuah teknologi Artificial Intelligence (kecerdasan buatan) pertama yang dapat dipelajari dari jejaring sosial. AI ini telah dilatih untuk memberikan skor keaslian yang tidak bias untuk setiap berita, dalam bahasa apa pun. Model awal telah membuktikan kemampuannya untuk secara cepat dan akurat menemukan berita palsu.

Fabula AI menjanjikan untuk dapat  memberikan cara yang lebih baik guna mempertahankan kepercayaan pada berita dunia: sebuah lembaga kliring yang independen dan otomatis.

Untuk mencapai hal ini, pihak Fabula AI telah membentuk tim ilmuwan data kelas dunia yang berada di garis depan AI, bersama dengan pengusaha sukses dan kepemimpinan teknologi berpengalaman. “Kami telah mengamankan pendanaan awal untuk meningkatkan skala model kami dan menambahkan API, memungkinkan setiap platform atau aplikasi untuk memvalidasi berita – dengan cepat, obyektif, dan hemat biaya,” demikian tegas Fabula IA.

 

Alogaritma Pembelajaran

Fabula mengatakan bahwa  algoritma pembelajaran yang mendalam yang dikembangkannya itu,  mampu mempelajari pola pada set data yang kompleks dan terdistribusi seperti jejaring sosial. Jadi, teknologi ini dianggap sebagai terobosan.

Pendekatan yang diambil untuk mendeteksi disinformasi tidak bergantung pada algoritma parsing konten berita untuk mencoba mengidentifikasi omong kosong berbahaya, melainkan melihat bagaimana hal-hal seperti itu menyebar di jejaring sosial – dan juga karena itu siapa yang menyebarkannya.

Ada pola-pola khas tentang bagaimana ‘berita palsu’ menyebar vs artikel asli, kata co-founder Fabula dan kepala ilmuwan, Michael Bronstein.

“Kami melihat bagaimana berita itu menyebar di jejaring sosial. Dan ada – saya akan katakan – sejumlah besar bukti yang menunjukkan bahwa berita palsu dan berita nyata menyebar secara berbeda, ” kata Bronstein seperti dikutip  TechCrunch, dengan menunjuk pada sebuah penelitian besar baru-baru ini oleh akademisi MIT yang menemukan ‘berita palsu’ menyebar secara berbeda vs konten yang bonafid di Twitter.

“Inti dari pembelajaran mendalam geometrik ini adalah dapat bekerja dengan data terstruktur jaringan. Jadi di sini kita dapat memasukkan data heterogen seperti karakteristik pengguna; interaksi jejaring sosial antara pengguna; penyebaran berita itu sendiri; begitu banyak fitur yang sebaliknya tidak mungkin dihadapi dengan teknik pembelajaran mesin, ” jelasnya.

Bronstein, yang juga seorang profesor di Imperial College London, mengibaratkan dengan kursi dalam pembelajaran mesin dan pengenalan pola, menyamakan fenomena pengklasifikasi pembelajaran mesin Fabula telah belajar mengenali cara penyebaran penyakit menular melalui suatu populasi.

“Ini tentu saja model yang sangat disederhanakan tentang bagaimana suatu penyakit menyebar di jaringan. Dalam hal ini jaringan memodelkan hubungan atau interaksi antara orang-orang. Jadi dalam arti tertentu Anda bisa memikirkan berita dengan cara ini, ” katanya.

“Ada bukti polarisasi, ada bukti bias konfirmasi. Jadi, pada dasarnya, ada apa yang disebut ruang gema yang dibentuk di jejaring sosial yang mendukung perilaku ini. ”

“Kami tidak benar-benar membahas – katakanlah – faktor sosiologis atau psikologis yang mungkin menjelaskan mengapa ini terjadi. Tetapi ada beberapa penelitian yang menunjukkan bahwa berita palsu mirip dengan epidemi. “***

 

Digiqole ad

Related post

Leave a Reply

Your email address will not be published. Required fields are marked *