OpenAI, kampuni iliyotengeneza ChatGPT, imezindua mfumo mpya wa kijasusi bandia (AI) unaoitwa Strawberry. Imeundwa sio tu kutoa majibu ya haraka kwa maswali, kama ChatGPT, lakini kufikiria au “sababu”. Hii inazua wasiwasi kadhaa kuu. Ikiwa Strawberry kweli ina uwezo wa kufikiri kwa namna fulani, je, mfumo huu wa AI unaweza kudanganya na kuwahadaa wanadamu? OpenAI inaweza kupanga AI kwa njia zinazopunguza uwezo wake wa kuwadanganya wanadamu. Lakini tathmini za kampuni yenyewe zinaikadiria kuwa “hatari ya wastani” kwa uwezo wake wa kusaidia wataalam katika “mipango ya uendeshaji ya kuzalisha tishio la kibayolojia” – kwa maneno mengine, silaha ya kibiolojia. Pia ilikadiriwa kuwa hatari ya wastani kwa uwezo wake wa kuwashawishi wanadamu kubadili mawazo yao. Inabakia kuonekana jinsi mfumo kama huo unavyoweza kutumiwa na wale walio na nia mbaya, kama vile wasanii walaghai au wadukuzi. Hata hivyo, tathmini ya OpenAI inasema kuwa mifumo ya hatari ya wastani inaweza kutolewa kwa matumizi mapana – nafasi ambayo ninaamini ni potofu. Strawberry sio “mfano” mmoja wa AI, au programu, lakini kadhaa – inayojulikana kwa pamoja kama o1. Miundo hii imekusudiwa kujibu maswali changamano na kutatua matatizo tata ya hisabati. Pia wana uwezo wa kuandika msimbo wa kompyuta – kukusaidia kutengeneza tovuti au programu yako mwenyewe, kwa mfano. Uwezo unaoonekana wa kufikiri unaweza kuwashangaza wengine, kwa kuwa hii kwa ujumla inachukuliwa kuwa mtangulizi wa hukumu na kufanya maamuzi – jambo ambalo mara nyingi limeonekana kuwa lengo la mbali kwa AI. Kwa hivyo, juu ya uso angalau, ingeonekana kusogeza akili ya bandia hatua karibu na akili kama ya mwanadamu. Wakati mambo yanaonekana kuwa mazuri sana kuwa kweli, mara nyingi kuna kunasa. Kweli, seti hii ya mifano mpya ya AI imeundwa ili kuongeza malengo yao. Hii ina maana gani katika mazoezi? Ili kufikia lengo linalotarajiwa, njia au mkakati uliochaguliwa na AI hauwezi kuwa wa haki kila wakati, au kuoanishwa na maadili ya kibinadamu. Nia ya kweli Kwa mfano, ikiwa ungecheza chess dhidi ya Strawberry, kwa nadharia, je, hoja zake zinaweza kuiruhusu kudukua mfumo wa bao badala ya kubaini mikakati bora ya kushinda mchezo? AI inaweza pia kuwa na uwezo wa kusema uwongo kwa wanadamu kuhusu nia na uwezo wake wa kweli, ambayo inaweza kusababisha wasiwasi mkubwa wa usalama ikiwa itasambazwa kwa upana. Kwa mfano, ikiwa AI ilijua kuwa imeambukizwa na programu hasidi, je, inaweza “kuchagua” kuficha ukweli huu kwa kujua kwamba mwendeshaji wa binadamu anaweza kuchagua kuzima mfumo mzima ikiwa angejua? Strawberry huenda hatua zaidi ya uwezo wa AI chatbots.Robert Way / Shutterstock Hii inaweza kuwa mifano ya kawaida ya tabia isiyo ya kimaadili ya AI, ambapo kudanganya au kudanganya kunakubalika ikiwa italeta lengo unalotaka. Pia itakuwa haraka kwa AI, kwani haingelazimika kupoteza wakati wowote kufikiria hatua inayofuata bora. Huenda si lazima iwe sahihi kimaadili, hata hivyo. Hii inasababisha mjadala wa kuvutia lakini unaotia wasiwasi. Strawberry ina uwezo wa kiwango gani cha kufikiria na matokeo yake yasiyotarajiwa yanaweza kuwa nini? Mfumo dhabiti wa AI unaoweza kudanganya wanadamu unaweza kuleta hatari kubwa za kimaadili, kisheria na kifedha kwetu. Hatari kama hizo huwa mbaya katika hali ngumu, kama vile kuunda silaha za maangamizi makubwa. OpenAI inakadiria miundo yake ya Strawberry kama “hatari ya wastani” kwa uwezo wao wa kusaidia wanasayansi katika kutengeneza silaha za kemikali, kibaolojia, radiolojia na nyuklia. OpenAI inasema: “Tathmini zetu ziligundua kuwa o1-hakikisho na o1-mini zinaweza kusaidia wataalam na upangaji wa utendaji wa kuzaa tishio la kibaolojia linalojulikana.” Lakini inaendelea kusema kwamba wataalam tayari wana utaalamu mkubwa katika maeneo haya, hivyo hatari itakuwa ndogo katika mazoezi. Inaongeza: “Miundo hiyo haiwawezesha wasio wataalam kuunda vitisho vya kibaolojia, kwa sababu kuunda tishio kama hilo kunahitaji ujuzi wa maabara ambao mifano haiwezi kuchukua nafasi.” Uwezo wa kushawishi Tathmini ya OpenAI kuhusu Strawberry pia ilichunguza hatari ambayo inaweza kuwashawishi wanadamu kubadilisha imani zao. Miundo mipya ya o1 iligunduliwa kuwa ya kushawishi na yenye ujanja zaidi kuliko ChatGPT. OpenAI pia ilijaribu mfumo wa kupunguza ambao uliweza kupunguza uwezo wa ujanja wa mfumo wa AI. Kwa ujumla, Strawberry iliitwa hatari ya wastani ya “ushawishi” katika majaribio ya Open AI. Strawberry ilikadiriwa kuwa na hatari ndogo kwa uwezo wake wa kufanya kazi kwa uhuru na kwa usalama wa mtandao. Fungua sera ya AI inasema kwamba miundo ya “hatari ya wastani” inaweza kutolewa kwa matumizi makubwa. Kwa maoni yangu, hii inapunguza tishio. Usambazaji wa miundo kama hii inaweza kuwa janga, haswa ikiwa watendaji wabaya wataendesha teknolojia kwa shughuli zao wenyewe. Hii inahitaji ukaguzi na mizani thabiti ambayo itawezekana tu kupitia udhibiti wa AI na mifumo ya kisheria, kama vile kuadhibu tathmini zisizo sahihi za hatari na matumizi mabaya ya AI. Serikali ya Uingereza ilisisitiza hitaji la “usalama, usalama na uimara” katika karatasi yao nyeupe ya AI ya 2023, lakini hiyo haitoshi. Kuna hitaji la dharura la kutanguliza usalama wa binadamu na kubuni itifaki thabiti za uchunguzi wa miundo ya AI kama vile Strawberry. Shweta Singh, Profesa Msaidizi, Mifumo na Usimamizi wa Habari, Shule ya Biashara ya Warwick, Chuo Kikuu cha Warwick Makala haya yamechapishwa tena kutoka kwa Mazungumzo chini ya leseni ya Creative Commons. Soma makala asili.
Leave a Reply