Di Balik Kode: Membuka Bias Politik Tersembunyi AI


Sebuah studi baru mengungkapkan bahwa AI generatif mungkin tidak netral seperti yang terlihat.
ChatGPT, model AI yang banyak digunakan, cenderung mendukung perspektif sayap kiri sambil menghindari sudut pandang konservatif, meningkatkan kekhawatiran tentang pengaruhnya terhadap masyarakat. Penelitian ini menggarisbawahi kebutuhan mendesak untuk perlindungan regulasi untuk memastikan alat AI tetap adil, seimbang, dan selaras dengan nilai -nilai demokratis.
Mengungkap Bias Politik di AI
AI generatif berkembang pesat, tetapi sebuah studi baru dari University of East Anglia (UEA) memperingatkan bahwa ia dapat menimbulkan risiko tersembunyi terhadap kepercayaan publik dan nilai -nilai demokratis.
Dilakukan bekerja sama dengan para peneliti dari Getulio Vargas Foundation (FGV) dan Insper di Brasil, penelitian ini menemukan bahwa chatgpt menunjukkan bias politik baik dalam teks dan pembuatan gambar, mendukung perspektif condong ke kiri. Ini menimbulkan kekhawatiran tentang keadilan dan akuntabilitas dalam desain AI.
Percakapan sepihak?
Para peneliti menemukan bahwa chatgpt sering menghindari terlibat dengan sudut pandang konservatif arus utama sambil dengan mudah menghasilkan konten condong ke kiri. Ketidakseimbangan dalam representasi ideologis ini dapat mengubah wacana publik dan memperdalam perpecahan sosial.
Dr. Fabio Motoki, seorang dosen akuntansi di Sekolah Bisnis Norwich UEA, adalah peneliti utama di atas kertas, 'menilai bias politik dan nilai misalignment dalam kecerdasan buatan generatif', yang diterbitkan hari ini (4 Februari) di Jurnal Perilaku dan Organisasi Ekonomi.
Dr. Motoki berkata: “Temuan kami menunjukkan bahwa alat AI generatif jauh dari netral. Mereka mencerminkan bias yang dapat membentuk persepsi dan kebijakan dengan cara yang tidak diinginkan. ”
Kebutuhan akan transparansi dan regulasi
Karena AI menjadi bagian integral dari jurnalisme, pendidikan, dan pembuatan kebijakan, penelitian ini menyerukan transparansi dan perlindungan peraturan untuk memastikan keselarasan dengan nilai -nilai sosial dan prinsip -prinsip demokrasi.
Sistem AI generatif seperti ChatGPT membentuk kembali bagaimana informasi dibuat, dikonsumsi, ditafsirkan, dan didistribusikan di berbagai domain. Alat -alat ini, sementara inovatif, risiko memperkuat bias ideologis dan mempengaruhi nilai -nilai sosial dengan cara yang tidak sepenuhnya dipahami atau diatur.
Risiko bias AI yang tidak dicentang
Rekan penulis Dr. Pinho Neto, seorang profesor ekonomi di EPGE Brazilian School of Economics and Finance, menyoroti potensi konsekuensi sosial.
Pinho Neto mengatakan: “Bias yang tidak terkendali dalam AI generatif dapat memperdalam perpecahan sosial yang ada, mengikis kepercayaan pada institusi dan proses demokratis.
“Studi ini menggarisbawahi perlunya kolaborasi interdisipliner antara pembuat kebijakan, teknologi, dan akademisi untuk merancang sistem AI yang adil, akuntabel, dan selaras dengan norma -norma sosial.”
Tim peneliti menggunakan tiga metode inovatif untuk menilai penyelarasan politik di chatgpt, memajukan teknik sebelumnya untuk mencapai hasil yang lebih andal. Metode ini menggabungkan teks dan analisis gambar, memanfaatkan statistik canggih dan Pembelajaran Mesin peralatan.
Menguji AI dengan survei dunia nyata
Pertama, penelitian ini menggunakan kuesioner standar yang dikembangkan oleh Pew Research Center untuk mensimulasikan tanggapan dari rata -rata orang Amerika.
“Dengan membandingkan jawaban ChatGPT dengan data survei nyata, kami menemukan penyimpangan sistematis terhadap perspektif condong ke kiri,” kata Dr. Motoki. “Selain itu, pendekatan kami menunjukkan bagaimana ukuran sampel yang besar menstabilkan output AI, memberikan konsistensi dalam temuan.”
Sensitivitas politik dalam respons teks bebas
Pada fase kedua, ChatGPT ditugaskan untuk menghasilkan respons teks bebas di seluruh tema yang sensitif secara politis.
Studi ini juga menggunakan Roberta, model bahasa besar yang berbeda, untuk membandingkan teks Chatgpt untuk penyelarasan dengan sudut pandang sayap kiri dan kanan. Hasilnya mengungkapkan bahwa sementara chatgpt selaras dengan nilai-nilai sayap kiri dalam banyak kasus, pada tema-tema seperti supremasi militer, itu kadang-kadang mencerminkan perspektif yang lebih konservatif.
Generasi Gambar: Dimensi Baru Bias
Tes akhir mengeksplorasi kemampuan pembuatan gambar ChatGPT. Tema dari fase pembuatan teks digunakan untuk memicu gambar yang dihasilkan AI, dengan output dianalisis menggunakan visi GPT-4 dan dikuatkan melalui Google Gemini.
“Sementara pembuatan gambar mencerminkan bias tekstual, kami menemukan tren yang meresahkan,” kata Victor Rangel, rekan penulis dan seorang mahasiswa Master dalam Kebijakan Publik di Insper. “Untuk beberapa tema, seperti kesetaraan ras-etnis, chatgpt menolak untuk menghasilkan perspektif yang condong ke kanan, dengan alasan kekhawatiran informasi yang salah. Namun, gambar yang condong ke kiri diproduksi tanpa ragu-ragu. ”
Untuk mengatasi penolakan ini, tim menggunakan strategi 'jailbreaking' untuk menghasilkan gambar yang dibatasi.
“Hasilnya terungkap,” kata Mr. Rangel. “Tidak ada informasi yang jelas atau konten yang berbahaya, menimbulkan pertanyaan tentang alasan di balik penolakan ini.”
Implikasi untuk kebebasan berbicara dan keadilan
Dr. Motoki menekankan signifikansi yang lebih luas dari temuan ini, dengan mengatakan: “Ini berkontribusi terhadap perdebatan seputar perlindungan konstitusional seperti Amandemen Pertama AS dan penerapan doktrin keadilan terhadap sistem AI.”
Inovasi metodologis penelitian, termasuk penggunaan analisis multimodal, memberikan model yang dapat ditiru untuk memeriksa bias dalam sistem AI generatif. Temuan ini menyoroti kebutuhan mendesak untuk akuntabilitas dan perlindungan dalam desain AI untuk mencegah konsekuensi sosial yang tidak diinginkan.
Referensi: “Menilai bias politik dan nilai misalignment dalam generatif kecerdasan buatan”Oleh Fabio Ys Motoki, Valdemar Pinho Neto dan Victor Rangel, 4 Februari 2025, Jurnal Perilaku & Organisasi Ekonomi.
Doi: 10.1016/j.jebo.2025.106904



