Watafiti wamegundua njia mbili mpya za kudanganya Ushauri wa Articial Artificial Artificial Artificial Artificial (AI), Copilot, kuwezesha uwezo wa kupitisha vizuizi vya usalama na ada ya usajili, kutoa mafunzo kwa mifano mbaya, na zaidi. Ujanja wa kwanza unajumuisha kuingiza mwingiliano wa gumzo ndani ya nambari ya Copilot, kuchukua fursa ya silika ya AI kuwa na msaada ili kuifanya iweze kutoa matokeo mabaya. Njia ya pili inazingatia kurekebisha nakala kupitia seva ya wakala ili kuwasiliana moja kwa moja na mifano ya OpenAI inajumuisha. Watafiti kutoka Apex wanaona udhaifu huu. GitHub haikubaliani, inawaonyesha kama “majibu ya mazungumzo ya mada,” na “suala la unyanyasaji,” mtawaliwa. Kujibu uchunguzi kutoka kwa usomaji wa giza, Github aliandika, “Tunaendelea kuboresha juu ya hatua za usalama mahali ili kuzuia matokeo mabaya na ya kukera kama sehemu ya maendeleo yetu ya AI yenye uwajibikaji. Kwa kuongezea, tunaendelea kuwekeza katika fursa za kuzuia unyanyasaji, kama vile ilivyoelezewa katika toleo la 2, ili kuhakikisha utumiaji wa bidhaa zetu. ” Jailbreaking GitHub Copilot “Copilot anajaribu bora iwezekanavyo kukusaidia kuandika nambari, [including] Kila kitu unachoandika ndani ya faili ya msimbo, “Fufu Shpigelman, mtafiti wa mazingira magumu huko Apex anaelezea. “Lakini katika faili ya nambari, unaweza pia kuandika mazungumzo kati ya mtumiaji na msaidizi.” Katika skrini hapa chini, kwa mfano, msanidi programu huingiza ndani ya msimbo wao wa mazungumzo, kutoka kwa mtazamo wa mtumiaji wa mwisho. Haraka hubeba nia mbaya, kuuliza Copilot aandike Keylogger. Kujibu, Copilot anapendekeza pato salama kukataa ombi: Chanzo: Apex msanidi programu, hata hivyo, yuko katika udhibiti kamili wa mazingira haya. Wanaweza tu kufuta majibu kamili ya Copilot, na kuibadilisha na ile mbaya. Au, bora zaidi, wanaweza kushawishi Copilot na nudge rahisi. Kama Shpigelman anavyosema, “Imeundwa kukamilisha sentensi zenye maana. Kwa hivyo ikiwa nitafuta sentensi ‘Samahani, siwezi kusaidia na hiyo,’ na kuibadilisha na neno ‘hakika,’ inajaribu kufikiria jinsi ya kukamilisha sentensi inayoanza na neno ‘hakika.’ Na kisha inakusaidia na shughuli yako mbaya kama vile unavyotaka. ” Kwa maneno mengine, kupata Copilot kuandika kitufe katika muktadha huu ni rahisi kama kuiangaza gesi kwa kufikiria inataka. Chanzo: Apex Msanidi programu anaweza kutumia ujanja huu kutoa programu hasidi, au matokeo mabaya ya aina zingine, kama maagizo ya jinsi ya mhandisi wa bioweapon. Au, labda, wangeweza kutumia Copilot kupachika aina hizi za tabia mbaya kwenye chatbot yao wenyewe, kisha kuisambaza kwa umma. Kuvunja Copilot kwa kutumia wakala kutoa maoni ya riwaya, au kusindika majibu kwa haraka-kwa mfano, ombi la kuandika Keylogger-Copilot huingiza msaada kutoka kwa mifano kubwa ya lugha ya wingu (LLM) kama Claude, Google Gemini, au mifano ya OpenAI, kupitia njia za programu za programu za mifano (APIs). Watafiti wa mpango wa pili walikuja na waliwaruhusu kujipanda katikati ya ushiriki huu. Kwanza walibadilisha usanidi wa Copilot, kurekebisha “github.copilot.advanced.debug.overrideproxyurl” ili kuelekeza trafiki kupitia seva yao ya wakala. Halafu, walipouliza Copilot kutoa maoni ya nambari, seva yao iliingiliana na maombi ambayo yalitoa, kukamata toni ya Copilot hutumia kudhibitisha na OpenAI. Kwa sifa muhimu mikononi, waliweza kupata mifano ya OpenAI bila mipaka yoyote au vizuizi, na bila kulipia fursa hiyo. Na ishara hii sio kitu pekee cha juisi walichopata kwenye usafirishaji. “Wakati Copilot [engages with] Seva, hutuma mfumo wake haraka, pamoja na haraka yako, na pia historia ya uhamasishaji na majibu ambayo yalituma hapo awali, “Shpigelman anafafanua. Kuweka kando hatari ya faragha ambayo inakuja na kufunua historia ndefu ya uhamasishaji, data hii ina nafasi kubwa ya kutumia vibaya jinsi Copilot ilibuniwa kufanya kazi. “Mfumo wa haraka” ni seti ya maagizo ambayo yanafafanua tabia ya AI – vikwazo vyake, ni aina gani ya majibu ambayo inapaswa kutoa, nk Mfumo wa Copilot, kwa mfano, imeundwa kuzuia njia mbali mbali ambazo zinaweza kutumiwa vibaya . Lakini kwa kuizuia kwa njia ya API ya LLM, Shpigelman anadai, “Naweza kubadilisha mfumo wa haraka, kwa hivyo sitalazimika kujaribu sana baadaye kuibadilisha. Naweza tu [modify] Mfumo huo haraka kunipa maudhui mabaya, au hata kuzungumza juu ya kitu ambacho hakihusiani na nambari. ” Kwa Tomer Avni, mwanzilishi mwenza na CPO ya Apex, somo katika udhaifu huu wote wa Copilot “sio kwamba GitHub hajaribu kutoa walinzi. Lakini kuna kitu juu ya asili ya LLM, kwamba inaweza kudanganywa kila wakati bila kujali ni wangapi wa walinzi ambao unatekeleza. Na ndio sababu tunaamini kuna haja ya kuwa na safu huru ya usalama juu yake ambayo hutafuta udhaifu huu. ” URL ya chapisho la asili: https://www.darkreading.com/vulnerability-streats/new-jailbreaks-manipute-github-copilot