selamat menunaikan ibadah puasa selamat menunaikan ibadah puasa selamat menunaikan ibadah puasa hari jadi kota pasuruanisra miraj hut oku selatan, hari jadi oku selatan
News  

Sosiolog Menemukan Budaya Manusia Semakin Terpengaruh Oleh AI

JAKARTA, GESAHKITA COM— Algoritma dapat semakin mempengaruhi budaya manusia, meskipun kita tidak memiliki pemahaman yang baik tentang bagaimana mereka berinteraksi dengan kita atau satu sama lain.

“Budaya Manusia Semakin Berasal dari Artificial Intelegen (AI) yang Tidak Dapat Dijelaskan, kata para Sosiolog Temukan”

Seorang columnis Edward Ongweso Jr yang mengungkapkan bahwa baru ini Sebuah penelitian menunjukkan bahwa manusia dapat mempelajari hal-hal baru dari sistem kecerdasan buatan dan menyebarkannya ke manusia lain, dengan cara yang berpotensi mempengaruhi budaya manusia yang lebih luas.

Studi yang diterbitkan pada hari Senin oleh sekelompok peneliti di Pusat Manusia dan Mesin di Institut Max Planck untuk Pembangunan Manusia, menunjukkan bahwa sementara manusia dapat belajar dari algoritme bagaimana memecahkan masalah tertentu dengan lebih baik.

Manusia cenderung lebih memilih solusi dari manusia lain daripada yang diusulkan oleh algoritme, karena solusi tersebut lebih intuitif, atau lebih murah di muka—bahkan jika nanti hasilnya lebih baik lagi.

“Teknologi digital telah mempengaruhi proses transmisi sosial di antara orang-orang dengan menyediakan sarana komunikasi dan imitasi yang baru dan lebih cepat,” tulis para peneliti dalam studi tersebut.

“Selangkah lebih maju, kami berpendapat bahwa alih-alih sekadar sarana transmisi budaya (seperti buku atau Internet), agen algoritmik dan AI juga dapat memainkan peran aktif dalam membentuk proses evolusi budaya online di mana manusia dan algoritme berinteraksi secara rutin.”

Inti dari penelitian ini bertumpu pada pertanyaan yang relatif sederhana: Jika pembelajaran sosial, atau kemampuan manusia untuk belajar dari satu sama lain, membentuk dasar bagaimana manusia mentransmisikan budaya atau memecahkan masalah secara kolektif, seperti apa pembelajaran sosial antara manusia dan algoritma. ?

Mengingat para ilmuwan tidak selalu tahu dan sering kali tidak dapat mereproduksi cara kerja atau peningkatan algoritme mereka sendiri, gagasan bahwa pembelajaran mesin dapat memengaruhi pembelajaran manusia dan budaya itu sendiri dari generasi ke generasi sebenarnya adalah gagasan yang menakutkan.

“Ada sebuah konsep yang disebut evolusi budaya kumulatif, di mana kami mengatakan bahwa setiap generasi selalu menarik generasi berikutnya, sepanjang sejarah manusia,” Levin Brinkmann, salah satu peneliti yang mengerjakan studi tersebut, mengatakan kepada Motherboard.

“Jelas, AI mempelajari sejarah manusia—mereka dilatih tentang data manusia. Tetapi kami juga merasa menarik untuk memikirkan sebaliknya: bahwa mungkin di masa depan budaya manusia kita akan dibangun di atas solusi yang telah awalnya ditemukan oleh suatu algoritma.”

Salah satu contoh awal yang dikutip dalam penelitian ini adalah Go, permainan papan strategi Cina yang melihat algoritme—AlphaGo—mengalahkan juara dunia manusia Lee Sedol pada 2016.

AlphaGo membuat gerakan yang sangat tidak mungkin dilakukan oleh pemain manusia dan dipelajari melalui diri sendiri. -play alih-alih menganalisis data gameplay manusia. Algoritme tersebut dipublikasikan pada tahun 2017 dan gerakan seperti itu menjadi lebih umum di antara pemain manusia, menunjukkan bahwa bentuk hibrida dari pembelajaran sosial antara manusia dan algoritme tidak hanya mungkin tetapi juga tahan lama.

Kita sudah tahu bahwa algoritme dapat dan memang memengaruhi manusia secara signifikan.

Mereka tidak hanya digunakan untuk mengontrol pekerja dan warga di tempat kerja fisik, tetapi juga mengontrol pekerja di platform digital dan memengaruhi perilaku individu yang menggunakannya.

Bahkan studi tentang algoritme telah menunjukkan kemudahan yang mengkhawatirkan yang dapat digunakan sistem ini untuk mencoba-coba frenologi dan fisiognomi.

Tinjauan federal tentang algoritme pengenalan wajah pada tahun 2019 menemukan bahwa mereka penuh dengan bias rasial.

Satu kertas Nature 2020 menggunakan pembelajaran mesin untuk melacak perubahan historis tentang bagaimana “kepercayaan” telah digambarkan dalam potret, tetapi membuat diagram yang tidak dapat dibedakan dari buklet frenologi terkenal dan menawarkan kesimpulan universal dari kumpulan data terbatas pada potret Eropa dari subjek kaya.

“Saya tidak berpikir pekerjaan kami benar-benar dapat mengatakan banyak tentang pembentukan norma atau seberapa banyak AI dapat mengganggu itu,” kata Brinkmann.

“Kami fokus pada jenis budaya yang berbeda, apa yang bisa Anda sebut budaya inovasi, bukan?

Nilai atau kinerja terukur di mana Anda dapat dengan jelas mengatakan, ‘Oke, paradigma ini—seperti dengan AlphaGo—mungkin lebih cenderung mengarah pada kesuksesan atau kemungkinan kecil.’”

Untuk percobaan, para peneliti menggunakan “rantai transmisi”, di mana mereka membuat urutan masalah yang harus dipecahkan dan peserta dapat mengamati solusi sebelumnya (dan menyalinnya) sebelum menyelesaikannya sendiri.

Dua rantai dibuat: satu dengan hanya manusia, dan satu algoritma manusia hibrida di mana algoritma mengikuti manusia tetapi tidak tahu apakah pemain sebelumnya adalah manusia atau algoritma.

Tugas yang harus diselesaikan adalah menemukan “urutan gerakan yang optimal” untuk menavigasi jaringan enam node dan menerima penghargaan dengan setiap gerakan.

“Seperti yang diharapkan, kami menemukan bukti peningkatan kinerja dari generasi ke generasi karena pembelajaran sosial,” tulis para peneliti.

“Menambahkan algoritme dengan bias pemecahan masalah yang berbeda dari manusia untuk sementara meningkatkan kinerja manusia tetapi perbaikan tidak dipertahankan pada generasi berikutnya. Sementara manusia memang menyalin solusi dari algoritme, mereka tampaknya melakukannya pada tingkat yang lebih rendah daripada menyalin solusi manusia lain dengan kinerja yang sebanding.”

Brinkmann mengatakan kepada Motherboard bahwa sementara mereka terkejut solusi superior tidak lebih umum diadopsi, ini sejalan dengan penelitian lain yang menunjukkan bias manusia dalam pengambilan keputusan tetap ada meskipun pembelajaran sosial. Namun, tim optimis bahwa penelitian di masa depan dapat menghasilkan wawasan tentang bagaimana mengubah ini.

“Satu hal yang kami lihat sekarang adalah efek kolektif apa yang mungkin berperan di sini,” kata Brinkmann. “Misalnya, ada sesuatu yang disebut ‘bias konteks’.

Ini benar-benar tentang faktor sosial yang mungkin juga berperan, tentang solusi yang tidak intuitif atau asing untuk suatu kelompok dapat dipertahankan.

 

Leave a Reply