Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг. Какво показват резултатите?

https://informiran.net/tehnologii/izkustveniyat-intelekt-gpt-4-na-openai-premina-testa-na-tyuring-kakvo-pokazvat-rezultatite Informiran.net
Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг. Какво показват резултатите?

Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг, съобщи специализираното издание LiveScience.

Изкуственият интелект се учи да лъже и мами

Тестът на Тюринг, предложен от британския математик Алан Тюринг, цели да определи дали една машина може да има "човешки разум". Това става с експеримент, при който доброволец говори със скрити за него събеседници - машина и реален човек. След това той трябва да определи кой от двамата е компютър. Ако не може, то значи способностите на машината са станали неотличими от човешките.

Изследователите Камерън Р. Джоунс и Бенджамин К. Берген решили да проведат теста на Тюринг с изкуствения интелект GPT-4 на OpenAI.

Екипът е помолил 500 души да говорят с четирима респонденти - човек, програмата ELIZA от 60-те години на миналия век, алгоритъма GPT-3.5 и по-новия GPT-4. 

Разговорите продължили пет минути, след което участниците трябвало да определят кой от събеседниците им е човек.

Оказва се, че в 54% от случаите GPT-4 е определян за човек. Резултатът на реалния събеседник пък е едва 67%.

Системата ELIZA е с най-нисък резултат - 22%. Алгоритъмът GPT-3.5 отбеляза също високите 50%.

Резултатът кара учените да се притеснят от напредъка в AI системите. По думите им "широко разпространените социални и икономически последици" са гарантирани.

Проучването представлява предизвикателство за бъдещото взаимодействие човек-машина.

"ELIZA е ограничена до готови програмирани отговори. Това значително намалява възможностите ѝ. Тя може да заблуди някого за пет минути, но след това ограниченията ѝ щяха да станат ясни. За разлика от нея големите езикови модели, като GPT, са безкрайно гъвкави, способни да синтезират отговори на широк спектър от теми и да се представят с различни личност и ценности. Това е огромна крачка напред от нещо, ръчно програмирано от нас", коментира Нел Уотсън от Института за инженери по електротехника и електроника (IEEE).

Според Уотсън хората в бъдеще ще станат параноични относно това с кого говорят, защото ще знаят, че другата страна може да не е човек.

"Нашите резултати предполагат, че в реалния свят хората може да не са в състояние надеждно да разберат дали говорят с човек или с AI система", каза пред Tech Xplore Камерън Джоунс, съавтор на доклада. 

"Всъщност в реалния свят хората може да са по-малко наясно с възможността, че говорят с AI система, така че степента на измама може да е дори по-висока", предупреждава Джоунс.

Проучването може да се прочете тук >>>


Източник/ци: nixanbal.com, it.dir.bg
Коментирай