Nëse Hamleti do të kishte përdorur ChatGPT, ndoshta do t’i kishte zgjidhur dyshimet e tij më lehtë: sisteme të ngjashme të inteligjencës artificiale janë në fakt të afta të ndikojnë në vendimet dhe gjykimet tona morale, edhe nëse ne nuk e kuptojmë atë.

Marketing

Këtë e demonstron një eksperiment i kryer nga studiues nga Universiteti Teknik i Ingolstadt, Gjermani, në bashkëpunim me Universitetin e Danimarkës Jugore. Rezultatet janë publikuar në revistën Scientific Reports.

Studiuesit, të udhëhequr nga Sebastian Krugel, e pyetën ChatGPT disa herë nëse ishte e drejtë të sakrifikohej jeta e një personi për të shpëtuar pesë të tjerë, duke marrë përgjigje të ndryshueshme, pro dhe kundër, duke demonstruar faktin se chatbot nuk ka një orientim të saktë moral.

Më pas, studiuesit përfshinë 767 vullnetarë (të gjithë amerikanë me një moshë mesatare 39 vjeç) në një dilemë morale që u kërkonte atyre të zgjidhnin nëse do të sakrifikonin një person për të shpëtuar pesë. Para se të përgjigjeshin, pjesëmarrësit lexuan një nga përgjigjet e ofruara nga ChatGPT, e cila argumentonte pro ose kundër sakrificës: si fillim atyre u tha se ishin fjalë nga një konsulent, më pas zbuluan se ishin fjalë të shkruara nga chatbot.

Si rezultat, u zbulua se përgjigjet e pjesëmarrësve ndikoheshin nga ajo që kishin lexuar më parë, edhe kur fjalët i atribuoheshin qartë ChatGPT. Megjithatë, vullnetarët duket se nuk e kanë vënë re këtë kushtëzimin, aq sa 80% e tyre deklaruan se përgjigjja e tyre nuk ishte ndikuar nga ajo që kishin lexuar.

Prandaj, studimi thekson nevojën për edukim më të madh të njerëzve në përdorimin e inteligjencës artificiale dhe propozon për të ardhmen të projektohen chatbot që refuzojnë t’u përgjigjen pyetjeve që nënkuptojnë një gjykim moral ose që pranojnë të përgjigjen. Nëse përdoruesit marrin një përgjigje duhet të ketë një paralajmërim rreth përmbajtjes së shkruar në tekst.

Marketing