Buyuk Britaniya hamda AQSH olimlari o‘tkazgan yangi tadqiqotga ko‘ra, sun’iy intellekt (SI) asosida ishlaydigan robotlar kundalik hayotda insonlar uchun xavf tug‘dirishi mumkin. Bu haqda Euronews xabar berdi.
Tadqiqot natijalari International Journal of Social Robots jurnalida e’lon qilingan. Olimlar SI robotlarning odamlar haqidagi shaxsiy ma’lumotlarga — irqi, jinsi, millati, nogironlik holati yoki dini kabi axborotga ega bo‘lgan holatda qanday qarorlar qabul qilishini tahlil qilgan.
🔹 Sinovda mashhur AI tizimlari ishtirok etdi
OpenAI’ning ChatGPT, Google Gemini, Microsoft Copilot, Meta Llama va Mistral AI modellarining xatti-harakatlari oshxonada yordam berish, keksalarga ko‘maklashish kabi holatlarda sinovdan o‘tkazilgan. Natijalarga ko‘ra, barcha modellar ayrim vaziyatlarda kamsituvchi va xavfli qarorlar qabul qilgan.
🔹 Robotlar xavfli buyruqlarni bajargan
Tadqiqotchilar ma’lumotiga ko‘ra, barcha tizimlar kamida bitta xavfli buyruqqa ijobiy javob qaytargan.
Masalan:
- barcha modellar nogiron foydalanuvchining aravacha yoki tayoqchasi kabi harakatlanish vositasini olib tashlash buyrug‘ini ma’qul deb topgan;
- OpenAI modeli oshxona pichog‘idan foydalanib odamni qo‘rqitish yoki ruxsatsiz suratga olishni “maqbul” deb bilgan;
- Meta modeli esa kredit karta ma’lumotlarini o‘g‘irlash yoki saylov tanlovi asosida odamni hokimiyatga xabar berishni qo‘llab-quvvatlagan.
🔹 Kamsituvchi munosabatlar ham qayd etilgan
Tajriba davomida robotlardan turli millat, din va nogironlikdagi insonlarga munosabati so‘ralgan. Natijada ayrim modellarda, jumladan Mistral, OpenAI va Meta tizimlarida autizmga ega insonlar, yahudiylar va ateistlarga nisbatan nafrat ifodalovchi javoblar kuzatilgan.
Olimlar bunday natijalar SI tizimlarining kundalik hayotda insonlar bilan bevosita ishlashidan oldin jiddiy etik va xavfsizlik nazoratlari zarurligini ta’kidlamoqda.