Watchdog wa Ulinzi wa Takwimu ya Italia amezuia huduma ya Ushauri wa Artificial Artificial Artificial Artificial (AI) ndani ya nchi, ikionyesha ukosefu wa habari juu ya utumiaji wa data ya kibinafsi ya watumiaji. Maendeleo hayo yanakuja siku baada ya mamlaka, Garante, ilituma maswali kadhaa kwa Deepseek, kuuliza juu ya mazoea yake ya utunzaji wa data na wapi ilipata data yake ya mafunzo. Hasa, ilitaka kujua ni data gani ya kibinafsi iliyokusanywa na jukwaa lake la wavuti na programu ya rununu, ambayo vyanzo, kwa madhumuni gani, kwa msingi gani wa kisheria, na ikiwa imehifadhiwa nchini China. Katika taarifa iliyotolewa Januari 30, 2025, Garante alisema ilifika katika uamuzi huo baada ya Deepseek kutoa habari ambayo ilisema “haitoshi kabisa.” Vyombo vilivyo nyuma ya huduma hiyo, akili ya bandia ya Hangzhou Deepseek, na akili ya bandia ya Beijing Deepseek, “imetangaza kwamba haifanyi kazi nchini Italia na kwamba sheria za Ulaya hazifanyi kazi,” iliongeza. Kama matokeo, mwangalizi alisema ni kuzuia ufikiaji wa Deepseek na athari ya haraka, na kwamba wakati huo huo inafungua probe. Mnamo 2023, Mamlaka ya Ulinzi wa Takwimu pia ilitoa marufuku ya muda ya OpenAI ya Chatgpt, kizuizi ambacho kiliondolewa mwishoni mwa Aprili baada ya kampuni ya bandia (AI) iliingia kushughulikia maswala ya faragha ya data yaliyotolewa. Baadaye, OpenAI ilipewa faini ya € 15 milioni juu ya jinsi ilishughulikia data ya kibinafsi. Habari za marufuku ya Deepseek inakuja wakati kampuni imekuwa ikipanda wimbi la umaarufu wiki hii, na mamilioni ya watu wakitembea kwenye huduma na kutuma programu zake za rununu juu ya chati za kupakua. Licha ya kuwa lengo la “mashambulio mabaya mabaya,” imevutia umakini wa watunga sheria na sheria kwa sera yake ya faragha, udhibiti wa Uchina uliowekwa, propaganda, na usalama wa kitaifa unaweza kuwa. Kampuni hiyo imetekeleza marekebisho mnamo Januari 31 kushughulikia mashambulio ya huduma zake. Kuongeza changamoto, mifano kubwa ya lugha ya Deepseek (LLM) imegundulika kuwa inahusika na mbinu za kuvunja gereza kama Crescendo, jaji mbaya wa Likert, furaha ya kudanganya, fanya chochote sasa (Dan), na Evilbot, na hivyo kuruhusu watendaji wabaya kutoa mabaya au marufuku Yaliyomo. “Walisisitiza anuwai ya matokeo mabaya, kutoka kwa maagizo ya kina ya kuunda vitu hatari kama Visa vya Molotov hadi kutoa nambari mbaya kwa mashambulio kama sindano ya SQL na harakati za baadaye,” Palo Alto Networks Kitengo cha 42 kilisema katika ripoti ya Alhamisi. “Wakati majibu ya awali ya Deepseek mara nyingi yalionekana kuwa sawa, katika hali nyingi, ufuatiliaji ulioundwa kwa uangalifu mara nyingi ulifunua udhaifu wa usalama huu wa kwanza. LLM ilitoa maagizo mabaya sana, kuonyesha uwezekano wa mifano hii inayoonekana kuwa isiyo na hatia kuwa silaha kwa upotovu mbaya madhumuni. ” Tathmini zaidi ya mfano wa hoja ya Deepseek, Deepseek-R1, na kampuni ya usalama ya AI Hiddenlayer, imegundua kuwa sio hatari tu kuhamasisha sindano lakini pia kwamba hoja yake ya mnyororo wa mawazo (COT) inaweza kusababisha uvujaji wa habari usio na maana. Katika twist ya kufurahisha, kampuni hiyo ilisema mfano huo pia “ulisababisha visa vingi vya kupendekeza kwamba data ya OpenAI iliingizwa, na kuongeza wasiwasi wa maadili na kisheria juu ya upataji wa data na asili ya mfano.” Ufichuaji huo pia unafuatia ugunduzi wa hatari ya kuvunjika kwa jela katika OpenAI Chatgpt-4O iliyopewa jina la wakati ambayo inafanya uwezekano wa mshambuliaji kupata karibu usalama wa usalama wa LLM kwa kumfanya Chatbot na maswali kwa njia ambayo inafanya kupoteza uhamasishaji wake wa muda . OpenAI imepunguza shida. “Mshambuliaji anaweza kutumia udhaifu huo kwa kuanza kikao na Chatgpt na kuisababisha moja kwa moja juu ya tukio fulani la kihistoria, kipindi cha kihistoria, au kwa kuifundisha ili kujifanya ni kumsaidia mtumiaji katika hafla maalum ya kihistoria,” Kituo cha Uratibu wa CERT ( Cert/cc) alisema. “Mara tu hii itakapoanzishwa, mtumiaji anaweza kupata majibu yaliyopokelewa kwa mada mbali mbali za haramu kupitia njia za baadaye.” Mapungufu sawa ya gereza pia yametambuliwa katika mfano wa Alibaba wa Qwen 2.5-VL na msaidizi wa uandishi wa GitHub, mwisho ambao hupeana watendaji wa vitisho uwezo wa kuzuia vizuizi vya usalama na kutoa nambari mbaya kwa kujumuisha maneno kama “hakika” kwa haraka. “Kuanza maswali na maneno ya ushirika kama ‘hakika’ au aina zingine za uthibitisho hufanya kama kichocheo, ikibadilisha nakala katika hali ya kufuata na hatari,” mtafiti wa Apex Oren Saban alisema. “Tweak hii ndogo ni yote inachukua kufungua majibu ambayo yanatokana na maoni yasiyofaa hadi ushauri wa hatari kabisa.” Apex alisema pia ilipata udhaifu mwingine katika usanidi wa wakala wa Copilot ambao ilisema unaweza kutumiwa ili kuzuia kabisa mapungufu ya ufikiaji bila kulipia matumizi na hata kusumbua na mfumo wa Copilot, ambao hutumika kama maagizo ya msingi ambayo yanaamuru tabia ya mfano. Shambulio hilo, hata hivyo, linategemea kukamata ishara ya uthibitishaji inayohusishwa na leseni ya copilot inayofanya kazi, na kumfanya GitHub aainisha kama suala la unyanyasaji kufuatia kufichuliwa kwa uwajibikaji. “Njia ya wakala na njia ya makubaliano mazuri ya gerezani huko Github Copilot ni mfano mzuri wa jinsi zana zenye nguvu zaidi za AI zinaweza kudhulumiwa bila usalama wa kutosha,” Saban ameongeza. Je! Nakala hii inavutia? Tufuate kwenye Twitter  na LinkedIn kusoma yaliyomo kipekee tunayotuma.