Mashinali o‘qitish etikasi: Nima uchun tibbiyot va huquqda qaror qabul qilishni to‘liq SI’ga ishonib bo‘lmaydi?

Avvalgi postimizda O‘zbekistondagi Sun’iy Intellekt (SI) bo‘yicha yangi qonunni tahlil qilgan edik. Bugun esa masalaning eng nozik va bahsli jihatiga — etika va ishonch masalasiga to‘xtalamiz. Mashinali o‘qitish (Machine Learning — ML) algoritmlari hayotimizning ko‘plab sohalarini inqilob qilmoqda. Ammo, tibbiyot va huquq kabi inson taqdiri hal qilinadigan sohalarda «sizga SI tashxis qo‘yadi» yoki «sizni SI…


blank

Avvalgi postimizda O‘zbekistondagi Sun’iy Intellekt (SI) bo‘yicha yangi qonunni tahlil qilgan edik. Bugun esa masalaning eng nozik va bahsli jihatiga — etika va ishonch masalasiga to‘xtalamiz.

Mashinali o‘qitish (Machine Learning — ML) algoritmlari hayotimizning ko‘plab sohalarini inqilob qilmoqda. Ammo, tibbiyot va huquq kabi inson taqdiri hal qilinadigan sohalarda «sizga SI tashxis qo‘yadi» yoki «sizni SI sud qiladi» degan gaplar hali ham ko‘pchilikni cho‘chitadi. Nima uchun?

Mas’uliyat kimda? Bo‘shliq muammosi

Faraz qiling:

  • Tibbiyotda: SI algoritmi bemorning rentgen tasvirini noto‘g‘ri tahlil qilib, sog‘lom odamga og‘ir tashxis qo‘ydi va noto‘g‘ri davolash boshlandi.

  • Huquqda: ML tizimi jinoyatchining qayta jinoyat sodir etish ehtimolini noto‘g‘ri baholab, unga haddan tashqari og‘ir jazo berilishiga sabab bo‘ldi.

Bunday vaziyatlarda kim aybdor? Algoritmmi? Uni yaratgan dasturchimi? Yoki unga ishlagan shifokor/sudyami? Hozircha qonunchilikda bu savolga aniq javob yo‘q. SI qaror qabul qilish jarayonining «qora qutisi» (biz qanday xulosa chiqarganini tushunolmaymiz) ekanligi mas’uliyatni belgilashni qiyinlashtiradi.

Algoritmik noxolislik (Bias): SI ham «adashadi»

Eng katta xavflardan biri — bu algoritmlarning noxolisligi. SI tizimlari o‘tmishdagi ma’lumotlar asosida o‘qitiladi. Agar o‘sha ma’lumotlar kamsitish (masalan, irqiy, jinsiy, hududiy kamsitish) belgilariga ega bo‘lsa, SI buni o‘rganadi va o‘z qarorlarida takrorlaydi.

  • Tibbiyotda bu ayrim etnik guruhlarga noto‘g‘ri tashxis qo‘yilishiga yoki ayollarning simptomlari erkaklarnikidan farqli bo‘lgani uchun e’tibordan chetda qolishiga olib kelishi mumkin.

  • Huquqda esa ma’lum hududlardan kelgan odamlarga nisbatan adolatsiz qarorlar chiqarilishiga sabab bo‘lishi mumkin.

Insoniylik omili: Empatiya va kontekst

SI ulkan ma’lumotlarni tahlil qila oladi, ammo u inson emas. U quyidagilarga qodir emas:

  • Empatiya: Shifokor bemorning ko‘zidagi qo‘rquvni, umidni ko‘ra oladi, uni ruhan qo‘llab-quvvatlaydi. SI faqat raqamlar bilan ishlaydi.

  • Kontekst: Sudya ishning barcha murakkab tafsilotlarini, insonning hayotiy vaziyatini, pushaymonligini hisobga oladi. SI faqat quruq faktlar va o‘rganilgan naqshlarga tayanadi.

Insoniy murakkablik va his-tuyg‘ularni algoritmga kiritib bo‘lmaydi. Tibbiyot va huquqda esa aynan shu omillar ko‘pincha hal qiluvchi ahamiyatga ega bo‘ladi.

SI — bu «yordamchi», «xo‘jayin» emas

Biz SI imkoniyatlarini rad etmasligimiz kerak. Tibbiyotda SI shifokorlarga rentgen tasvirlarini tezroq va aniqroq o‘qishga, huquqda esa huquqshunoslarga minglab hujjatlarni tezkor tahlil qilishga yordam beradi.

[Image showing hybrid intelligence: a human expert collaborating with artificial intelligence using augmented reality for decision making]

Ammo, yakuniy qaror har doim inson tomonidan qabul qilinishi va nazorat qilinishi shart. SI bizning o‘rnimizga qaror qabul qilmasligi, balki bizga to‘g‘ri qaror qabul qilish uchun kuchli vosita bo‘lib xizmat qilishi kerak. O‘RQ-1115-sonli Qonundagi «inson nazorati» prinsipi ham aynan shuni ta’kidlaydi.