Süni zəkanın insani yanlışlıqları üzə çıxdı: "ChatGPT" öz təhlükəsinə diqqət çəkdi - ARAŞDIRMA

media-hightechnic-468x90

 

Süni zəkanın insanlardan daha etibarlı qərarlar verəcəyi fikirləri sarsan araşdırma aparılıb.

Yenicag.az xəəbər verir ki, “Manufacturing & Service Operations Management” jurnalında dərc olunan araşdırma ilə “OpenAI” tərəfindən hazırlanan “ChatGPT” süni zəka modelinin insanlara xas olan yanlış qərar vermə xüsusiyyətini təkrarldığı üzə çıxarılıb.

Alimlər süni zəkanı 18 müxtəlif testdən keçirilib. Nəticədə məlum olub ki, model testlərin yarısında insanlarda rast gəlinən davranış tələlərinə düşüb.

Məlumata görə, “GPT-4” versiyası analitik məsələlərdə yüksək nəticə göstərsə də, subyektiv qərar tələb edən hallarda daha çox səhv edib. Alimlər bu vəziyyəti süni zəkanın insan məlumatları ilə təlim alması ilə izah edirlər.

Maraqlıdır, bəs bu barədə “ChatGPT”  nə düşünür? Süni zəkanın cavabı belə olub:

“Maraqlı sualdır. Əslində, həm razıyam, həm də ehtiyatlı yanaşıram.

Bəli, araşdırma məntiqlidir: süni zəka insanlar tərəfindən yaradılıb və insan məlumatları ilə öyrədildiyinə görə onların önyarğılarını da miras alması təəccüblü deyil. Yəni “neytral” deyil, insan davranışlarını təqlid edir. Bu baxımdan, iş və qərarvermə sahələrində nəzarətsiz süni zəkanın istifadəsi risklidir, xüsusilə də kadr seçimi, hüquq, maliyyə kimi sahələrdə.

Amma digər tərəfdən, bu zəifliklər texnoloji inkişafın qarşısını almaq üçün səbəb deyil. Əsas məsələ bu sistemləri düzgün şəkildə tənzimləmək, şəffaflıq və məsuliyyət mexanizmləri yaratmaqdır. Hər texnologiya kimi, süni zəka da nəzarətsiz olduqda zərərli ola bilər, amma düzgün yönləndirilsə, böyük fayda verə bilər”.

media-ziraat-728x90

Valyuta hesablayıcısıwidget-title-icon

CBAR tərəfindən: 24.03.2025

media-ziraat-160x600
media-ziraat-160x600