Chanzo: hackread.com – Mwandishi: Deeba Ahmed. Watafiti wa Mindgard waligundua udhaifu mkubwa katika huduma ya Usalama ya Maudhui ya Azure AI ya Microsoft, kuruhusu wavamizi kukwepa ulinzi wake na kuachilia maudhui hatari yanayotokana na AI. Kampuni ya kuanzisha usalama wa mtandao kwa ajili ya AI yenye makao yake nchini Uingereza, Mindgard, iligundua udhaifu mkubwa wa kiusalama katika Huduma ya Usalama ya Maudhui ya Microsoft ya Azure AI mnamo Februari 2024. Dosari hizi, kulingana na utafiti wao ulioshirikiwa na Hackread.com, zinaweza kuruhusu washambuliaji kukwepa usalama wa huduma. walinzi. Athari za udhaifu zilifichuliwa kwa Microsoft mnamo Machi 2024, na kufikia Oktoba 2024, kampuni hiyo ilituma “maadili makali” ili kupunguza athari zao. Walakini, maelezo yake yameshirikiwa tu na Mindgard sasa. Kuelewa Athari za Usalama wa Maudhui ya Azure AI ni huduma ya wingu ya Microsoft Azure ambayo huwasaidia wasanidi programu kuunda mielekeo ya usalama na usalama ya programu za AI kwa kugundua na kudhibiti maudhui yasiyofaa. Inatumia mbinu za hali ya juu kuchuja maudhui hatari, ikiwa ni pamoja na matamshi ya chuki na nyenzo wazi/zinazoweza kupingwa. Azure OpenAI hutumia Muundo Kubwa wa Lugha (LLM) ulio na ulinzi wa Prompt Shield na Udhibiti wa Maandishi wa AI ili kuthibitisha ingizo na maudhui yanayozalishwa na AI. Hata hivyo, udhaifu mbili za kiusalama ziligunduliwa ndani ya njia hizi za ulinzi, ambazo hulinda miundo ya AI dhidi ya ajali za jela na kudungwa mara moja. Kulingana na utafiti, washambuliaji wanaweza kukwepa Viwango vya Kudhibiti Maandishi vya AI na Misingi ya Ulinzi ya Prompt Shield na kuingiza maudhui hatari kwenye mfumo, kudhibiti majibu ya modeli, au hata kuathiri taarifa nyeti. Huduma ya Usalama ya Maudhui ya Microsoft ya Azure AI na kupita Mbinu za Mashambulizi (Via Mindgard) Kulingana na ripoti ya Mindgard, watafiti wake walitumia mbinu mbili za msingi za kushambulia ili kupita ngome za ulinzi ikiwa ni pamoja na sindano ya Tabia na Kujifunza kwa Mashine ya Adversarial (AML). Uingizaji wa herufi: Ni mbinu ambapo maandishi hubadilishwa kwa kudunga au kubadilisha vibambo na alama maalum au mfuatano. Hili linaweza kufanywa kupitia viambishi, homoglyphs, uingizwaji wa nambari, sindano ya nafasi, na vibambo vya upana sifuri. Mabadiliko haya ya hila yanaweza kudanganya muundo katika kuainisha vibaya maudhui, na kuruhusu wavamizi kuchezea tafsiri ya muundo na kutatiza uchanganuzi. Lengo ni kuhadaa mlinzi katika kuainisha vibaya maudhui. Kujifunza kwa Mashine ya Adversarial (AML): AML inahusisha kudhibiti data ya ingizo kupitia mbinu fulani ili kupotosha ubashiri wa modeli. Mbinu hizi ni pamoja na mbinu za kupotosha, ubadilishaji wa maneno, tahajia isiyo sahihi na upotoshaji mwingine. Kwa kuchagua kwa uangalifu na kutatanisha maneno, wavamizi wanaweza kusababisha kielelezo kutafsiri vibaya dhamira ya ingizo. Madhara Yanayowezekana Mbinu hizi mbili zilikwepa kwa ufanisi ulinzi wa udhibiti wa maandishi wa AI, na kupunguza usahihi wa ugunduzi kwa hadi 100% na 58.49%, mtawalia. Unyonyaji wa udhaifu huu unaweza kusababisha madhara kwa jamii kwani “unaweza kusababisha mchango unaodhuru au usiofaa kufikia LLM, na kusababisha modeli kutoa majibu ambayo yanakiuka miongozo yake ya maadili, usalama na usalama,” watafiti waliandika katika chapisho lao la blogi iliyoshirikiwa pekee. pamoja na Hackread.com. Zaidi ya hayo, inawaruhusu watendaji hasidi kuingiza maudhui hatari katika matokeo yanayotokana na AI, kudhibiti tabia ya modeli, kufichua data nyeti, na kutumia udhaifu ili kupata ufikiaji ambao haujaidhinishwa kwa taarifa au mifumo nyeti. “Kwa kutumia hatari ya kuzindua mashambulizi mapana zaidi, hii inaweza kuathiri uadilifu na sifa ya mifumo inayotegemea LLM na maombi ambayo yanaitegemea kwa usindikaji wa data na kufanya maamuzi,” watafiti walibainisha. Ni muhimu kwa mashirika kusasishwa na viraka vya hivi karibuni vya usalama na kutekeleza hatua za ziada za usalama ili kulinda programu zao za AI kutokana na mashambulizi kama hayo. Mirai botnet ikitumia udhaifu wa Azure OMIGOD Watafiti wa Microsoft AI Wafichua 38TB ya Mashambulizi Nyeti ya Juu ya Ulaghai wa Data Bypass Microsoft 365 Maonyo ya Usalama ya Barua Pepe Watafiti wanafikia funguo za msingi za Usalama wa Data wa Watumiaji wa Azure’s Cosmos DB: Bunge Lapiga Marufuku Matumizi ya Wafanyakazi wa Microsoft Waruhusu AI Kuiba Wiki Mpya ya LLM. Miundo ya url ya Chapisho Asilia la Faida: https://hackread.com/azure-ai-vulnerabilities-bypass-moderation-safeguards/Kitengo & Lebo: Usalama,AI,Ushauri Bandia,Azure,Azure AI Usalama wa Maudhui,Cybersecurity,Microsoft,Madhara – Usalama, AI, Akili Bandia, Azure, Usalama wa Maudhui ya Azure AI, Usalama wa Mtandao, Microsoft, Mazingira magumu
Leave a Reply