Kuegemea na kutabirika Njia tunayoingiliana na kompyuta leo inaweza kutabirika. Kwa mfano, tunapounda mifumo ya programu, mhandisi huketi na kuandika msimbo, akiiambia kompyuta nini hasa cha kufanya, hatua kwa hatua. Kwa mchakato wa mawakala wa AI, hatutoi maagizo ya hatua kwa hatua. Badala yake, tunaongoza kwa matokeo tunayotaka kufikia, na wakala huamua jinsi ya kufikia lengo hili. Wakala wa programu ana kiwango cha uhuru, ambayo inamaanisha kunaweza kuwa na bahati nasibu katika matokeo. Tuliona suala kama hilo kwenye ChatGPT na mifumo mingine ya AI generative yenye msingi wa LLM ilipojadili kwa mara ya kwanza. Lakini katika miaka miwili iliyopita, tumeona maboresho makubwa katika uthabiti wa matokeo genereshi ya AI, shukrani kwa urekebishaji mzuri, misururu ya maoni ya binadamu, na juhudi thabiti za kutoa mafunzo na kuboresha miundo hii. Tutahitaji kuweka kiwango sawa cha juhudi katika kupunguza ubahatishaji wa mifumo ya kikali ya AI ili kuifanya iweze kutabirika zaidi na kutegemewa. Faragha na usalama wa data Baadhi ya makampuni yanasita kutumia AI ya mawakala kwa sababu ya masuala ya faragha na usalama, ambayo ni sawa na yale yenye AI generative lakini yanaweza kuhusika zaidi. Kwa mfano, mtumiaji anapojihusisha na modeli kubwa ya lugha, kila taarifa inayotolewa kwa modeli hupachikwa katika muundo huo. Hakuna njia ya kurudi nyuma na kuiuliza “kusahau” habari hiyo. Baadhi ya aina za mashambulizi ya usalama, kama vile sindano ya papo hapo, huchukua fursa hii kwa kujaribu kupata kielelezo kuvuja taarifa za umiliki. Kwa sababu mawakala wa programu wanaweza kufikia mifumo mingi tofauti iliyo na kiwango cha juu cha uhuru, kuna hatari kubwa kwamba inaweza kufichua data ya kibinafsi kutoka kwa vyanzo zaidi.
Leave a Reply