Watafiti wa usalama wamegundua matukio mengi ya mashambulizi yanayolenga majukwaa ya MLOps kama vile Azure Machine Learning (Azure ML), BigML na Google Cloud Vertex AI, miongoni mwa mengine. Kulingana na nakala mpya ya utafiti ya Security Intelligence, Azure ML inaweza kuathiriwa kupitia wizi wa msimbo wa kifaa, ambapo wavamizi huiba tokeni za ufikiaji na kuchuja miundo iliyohifadhiwa kwenye jukwaa. Vekta hii ya mashambulizi hutumia udhaifu katika udhibiti wa utambulisho, hivyo kuruhusu ufikiaji usioidhinishwa wa vipengee vya kujifunza kwa mashine (ML). Watumiaji wa BigML wanakabiliwa na vitisho kutoka kwa funguo za API zilizofichuliwa zinazopatikana katika hazina za umma, ambazo zinaweza kuwapa ufikiaji usioidhinishwa wa hifadhidata za faragha. Vifunguo vya API mara nyingi hukosa sera za mwisho wa matumizi, na hivyo kuzifanya kuwa hatari inayoendelea ikiwa hazitazungushwa mara kwa mara. Google Cloud Vertex AI inaweza kuathiriwa na mashambulizi yanayohusisha wizi wa data binafsi na ongezeko la manufaa, kuruhusu wavamizi kutoa tokeni za GCloud na kufikia vipengee nyeti vya ML. Wavamizi wanaweza kutumia vitambulisho vilivyoathiriwa ili kutekeleza harakati za upande mmoja ndani ya muundo msingi wa shirika. Soma zaidi kuhusu usalama wa kujifunza kwa mashine: Utafiti Mpya Unafichua Hatari za Usalama katika Hatua za Ulinzi za ChatGPT Wataalamu wa usalama wanapendekeza hatua kadhaa za ulinzi kwa kila jukwaa. Kwa Azure ML, mbinu bora ni pamoja na kuwezesha uthibitishaji wa vipengele vingi (MFA), kutenga mitandao, kusimba data na kutekeleza udhibiti wa ufikiaji wa msingi wa dhima (RBAC) Kwa BigML, watumiaji wanapaswa kutumia MFA, kuzungusha vitambulisho mara kwa mara na kutekeleza vidhibiti vya ufikiaji vilivyoboreshwa. zuia ufichuaji wa data Kwa Google Cloud Vertex AI, inashauriwa kufuata kanuni ya upendeleo mdogo, kuzima anwani za nje za IP, kuwasha. kumbukumbu za ukaguzi wa kina na kupunguza ruhusa za akaunti ya huduma Kadiri biashara zinavyozidi kutegemea teknolojia ya AI kwa shughuli muhimu, kupata mifumo ya MLOps dhidi ya vitisho kama vile wizi wa data, uchimbaji wa muundo na sumu ya seti ya data inakuwa muhimu. Utekelezaji wa usanidi dhabiti wa usalama unaweza kuimarisha ulinzi na kulinda vipengee nyeti vya AI dhidi ya vitisho vya mtandaoni. Matokeo mapana Utafiti wa Usalama wa Usalama uliangazia udhaifu unaoathiri anuwai ya majukwaa ya MLOps ikiwa ni pamoja na Amazon SageMaker, JFrog ML (zamani Qwak), Domino Enterprise AI na MLOps Platform, Databricks, DataRobot, W&B (Weights & Biases), Valohai na TrueFoundry.
Leave a Reply