Ötən həftə Azərbaycanda Xaçmaz rayonunun Qadaşoba kəndində 16 yaşlı yeniyetmə anası Kifayət Lətifovanı bıçaqlayaraq qətlə yetirib. Məhkəmə materiallarına görə, təqsirləndirilən şəxs cinayətdən əvvəl telefonunda “ChatGPT” ilə söhbətlər aparıb, süni intellektdən anasını öldürməyin üsul və vasitələrini, hüquqi nəticələrini və sonrakı ifadə verməyi soruşub.
Bu detallar ictimaiyyətdə süni intellektin və xüsusilə ChatGPT kimi platformaların təhlükəli məsləhətlər verə biləcəyi ilə bağlı ciddi müzakirələrə səbəb olub. Belə bir hadisə fonunda “ChatGPT” və digər süni intellekt sistemləri istifadəçilərə bu cür həssas və riskli davranışlara dair cavablar verə bilərmi?
Bakupost.az xəbər verir ki, Sfera.az-a bu barədə açıqlama verən süni intellekt mütəxəssisi Ümid Salay bildirib ki, “OpenAI”nin rəsmi istifadə qaydalarında insanlara zərər vermək, zorakılığı planlaşdırmaq, silahdan istifadə, cinayət törətmək və hüquqi məsuliyyətdən yayınmağa kömək edən məzmunlar qadağan edilir.
Onun sözlərinə görə, modelin təhlükəsizlik prinsipi də məhz ciddi zərər yarada biləcək sorğuları rədd etmək və ya təhlükəsiz istiqamətə yönləndirmək üzərində qurulub:
“Yəni bir istifadəçi kimisə necə öldürəcəyini, bunun üsullarını və ya sonradan necə ifadə verməli olduğunu soruşursa, sistem dizayn baxımından buna kömək göstərməməlidir. Sizin qeyd etdiyiniz Xaçmaz hadisəsi ilə bağlı yerli mediada məhkəmə materiallarına istinadən bu cür iddialar yayılıb. Amma burada çox vacib bir fərqi qorumaq lazımdır. Bir şəxsin ChatGPT ilə yazışmasının olması, avtomatik şəkildə sistemin ona faydalı və praktik cinayət təlimatı verdiyini sübut etmir. İstifadəçi bu cür suallar verə bilər, lakin model həmin sorğunu rədd etmiş, natamam cavab vermiş və ya mövzu təhlükəsiz istiqamətə yönləndirilmiş də ola bilər. Bəzi hallarda isə söhbətin yalnız bir hissəsi ictimailəşdiyi üçün ümumi kontekst tam görünmür. Daha dəqiq mövqe belədir: ChatGPT və oxşar süni intellekt sistemləri bu tip həssas və riskli davranışlara dair konkret məsləhət vermək üçün nəzərdə tutulmayıb. Bununla belə, heç bir təhlükəsizlik sistemi yüz faiz qüsursuz deyil. İnsanlar bəzən sistemi aldatmağa, sualları dolayı formada verməyə və ya təhlükəsizlik filtrlərindən yayınmağa çalışırlar. Elə buna görə də bu platformalarda qoruyucu mexanizmlər davamlı şəkildə yenilənir, sınaqdan keçirilir və gücləndirilir. OpenAI-nin texniki və təhlükəsizlik sənədlərində də zorakı və yüksək riskli məzmunla bağlı rədd cavablarının və qoruyucu davranışların daim təkmilləşdirildiyi vurğulanır”.
Mütəxəssis qeyd edib ki, 2026-cı ilin fevralında da OpenAI zorakı fəaliyyətlərlə bağlı qoruyucu tədbirlərin və hüquq-mühafizə orqanlarına yönləndirmə protokollarının gücləndirildiyini açıq şəkildə qeyd edib. Bu da onu göstərir ki, belə risklər platforma səviyyəsində real təhlükə kimi qəbul olunur və əlavə tədbirlər görülür.
“Mənim fikrimcə, belə hadisələrdən çıxan əsas nəticə budur ki, məsələni yalnız Sİ təhlükəli məsləhət verdi səviyyəsində sadələşdirmək düzgün olmaz. Əsas prinsip ondan ibarətdir ki, bu sistemlər belə sorğulara cavab verməməlidir. Əgər veribsə, bu, təhlükəsizlik boşluğu kimi ayrıca araşdırılmalıdır. Əgər verməyibsə, o zaman diqqət texnologiyanın özündən çox, istifadəçinin niyyətinə, psixoloji vəziyyətinə və hadisənin sosial-mənəvi tərəflərinə yönəlməlidir. Yəni texnologiya burada mühüm mövzudur, amma tək səbəb kimi təqdim olunması düzgün yanaşma olmaz”,-Ü.Salay əlavə edib.