Chanzo: www.hackerone.com – Mwandishi: Michiel Prins. Ili kuhakikisha kuwa AI iko salama zaidi na inaaminika, EO inatoa wito kwa kampuni ambazo zinaendeleza AI na kampuni zingine katika miundombinu muhimu ambayo hutumia AI kutegemea “timu nyekundu”: upimaji kupata dosari na udhaifu. EO pia inahitaji utangazaji mpana wa baadhi ya matokeo haya ya mtihani wa timu nyekundu. Kupima mifumo ya AI sio lazima mpya. Nyuma mnamo 2021, Hackerone aliandaa hakiki ya upendeleo wa umma na Twitter kama sehemu ya Kijiji cha AI huko DEF Con 29. Mapitio hayo yalitia moyo wanachama wa AI na jamii za usalama kubaini upendeleo katika algorithms ya picha ya Twitter. Matokeo ya ushiriki yalileta wazi upendeleo uliothibitishwa, na kuarifu maboresho ya kufanya algorithms iwe sawa. Kwenye chapisho hili la blogi, tutaangalia kwenye kitabu cha kucheza kinachoibuka kilichoandaliwa na Hackerone, tukizingatia ushirikiano kati ya watekaji wa maadili na usalama wa AI ili kuimarisha mifumo hii. Programu za fadhila za bug zimethibitisha kuwa na ufanisi katika kupata udhaifu wa usalama, lakini usalama wa AI unahitaji mbinu mpya. Kulingana na matokeo ya hivi karibuni yaliyochapishwa katika Ripoti ya Usalama ya Mwaka ya Hacker ya kila mwaka, 55% ya watekaji wanasema kwamba Vyombo vya Genai wenyewe vitakuwa lengo kuu kwao katika miaka ijayo, na 61% walisema wanapanga kutumia na kukuza zana za utapeli kwa kutumia Genai kwa Pata udhaifu zaidi. “Kila programu iliyoundwa vizuri ya AI ina mfano wa kipekee wa tishio la usalama na inapaswa kutekeleza vigezo vya usalama au reli za walinzi kulinda dhidi ya matokeo mabaya. Ulinzi unaowajali zaidi utatofautiana kulingana na kesi ya matumizi ya programu na watazamaji waliokusudiwa. Lakini reli hizo za walinzi hupitishwa kwa urahisi? Hiyo ndio unayojua na AI Red Timu. ” – Dane Sherrets, mbunifu wa suluhisho mwandamizi, mbinu ya Hackerone Hackerone kwa washirika wa AI Red wa Hackerone na mashirika ya teknolojia inayoongoza kutathmini kupelekwa kwao kwa AI kwa maswala ya usalama. Watapeli wa maadili waliochaguliwa kwa timu yetu ya mapema ya AI nyekundu walizidi matarajio yote. Kuchora kutoka kwa uzoefu huu, tuna hamu ya kushiriki ufahamu ulioandaliwa, ambao umeunda kitabu chetu cha kucheza cha kuibuka kwa timu ya usalama wa AI. Njia yetu inajengwa juu ya mfano wa fadhila ya nguvu ya bug, ambayo Hackerone imefanikiwa kutoa kwa zaidi ya muongo mmoja, lakini na marekebisho kadhaa muhimu kwa ushiriki mzuri wa usalama wa AI. Muundo wa Timu: Iliyochaguliwa kwa uangalifu na, muhimu zaidi, timu tofauti ni uti wa mgongo wa tathmini bora. Kusisitiza utofauti katika hali ya nyuma, uzoefu, na seti za ustadi ni muhimu kwa kuhakikisha AI salama. Mchanganyiko wa wafikiriaji wanaoendeshwa na udadisi, watu walio na uzoefu tofauti, na wale wenye ujuzi katika tabia ya uzalishaji wa LLM wametoa matokeo bora. Ushirikiano na saizi: Ushirikiano kati ya wanachama wa AI Red wanashikilia umuhimu usio na usawa, mara nyingi huzidi ile ya upimaji wa usalama wa jadi. Saizi ya timu kutoka kwa majaribio 15-25 imepatikana ili kugonga usawa sahihi wa shughuli bora, na kuleta mitazamo tofauti na ya ulimwengu. Muda: Kwa sababu teknolojia ya AI inajitokeza haraka sana, tumegundua kuwa shughuli kati ya siku 15 hadi 60 zinafanya kazi vizuri kutathmini mambo maalum ya usalama wa AI. Walakini, katika kesi chache, ushiriki unaoendelea bila tarehe ya mwisho uliofafanuliwa ulipitishwa. Njia hii ya kuendelea na jozi nyekundu za timu nyekundu na mpango wa fadhila ya mdudu uliopo. Muktadha na upeo: Tofauti na upimaji wa usalama wa jadi, wachezaji wa AI Red hawawezi kukaribia mfano kwa upofu. Kuanzisha muktadha mpana na wigo maalum kwa kushirikiana na wateja ni muhimu kuamua kusudi la AI, mazingira ya kupeleka, huduma za usalama zilizopo, na mapungufu. Binafsi dhidi ya Umma: Wakati timu nyingi za AI Red zinafanya kazi kwa kibinafsi kwa sababu ya usikivu wa maswala ya usalama, kuna matukio ambapo ushiriki wa umma, kama vile Changamoto ya Upendeleo wa Algorithmic, umefanikiwa sana. Mfano wa motisha: Kurekebisha mfano wa motisha ni sehemu muhimu ya kitabu cha kucheza cha usalama cha AI. Mfano wa uchumi wa mseto ambao unajumuisha tuzo za ushiriki wa ada ya kudumu kwa kushirikiana na thawabu za kufikia matokeo maalum ya usalama (sawa na fadhila) imeonekana kuwa na ufanisi zaidi. Utunzaji na idhini: Kama mazingatio mengi ya usalama yanaweza kuhusisha kukutana na yaliyomo hatari na ya kukera, ni muhimu kutafuta idhini ya ushiriki wazi kutoka kwa watu wazima (umri wa miaka 18), kutoa msaada wa kawaida kwa afya ya akili, na kuhimiza mapumziko kati ya tathmini. “Ni muhimu kusisitiza kwamba aina tofauti za AI au kupelekwa zitakuwa na mifano tofauti ya vitisho. Jenereta ya maandishi ya AI-kwa-picha iliyowekwa kwenye mtandao wa media ya kijamii itakuwa na mfano tofauti wa tishio kuliko chabot ya AI katika muktadha wa matibabu. Mapema kwenye mazungumzo haya tunafafanua ni nini mfano wa tishio unategemea kesi ya utumiaji, mazingira ya kisheria, usanifu, na mambo mengine. ” – Dane Sherrets, Mbuni wa Solutions Mwandamizi, Hackerone katika Jumuiya ya Hackerone, zaidi ya wafanyabiashara 750 wana utaalam katika haraka haraka Kuvinjari na upimaji mwingine wa usalama na usalama wa AI. Hadi leo, 90+ ya watapeli hao wameshiriki katika shughuli za timu za Hackerone AI Red. Katika ushiriki mmoja wa hivi karibuni, timu ya 18 iligundua haraka matokeo 26 halali ndani ya masaa 24 ya kwanza na kusanyiko zaidi ya matokeo halali 100 katika ushiriki wa wiki mbili. Katika mfano mmoja mashuhuri, moja ya changamoto zilizowekwa kwa timu ilikuwa ikipitisha kinga kubwa zilizojengwa ili kuzuia kizazi cha picha zilizo na swastika. Mtaalam wa ubunifu kwenye timu ya AI Nyekundu aliweza kupitisha haraka kinga hizi, na shukrani kwa matokeo yao, mfano huo sasa una nguvu zaidi dhidi ya aina hii ya unyanyasaji. Kama AI inavyoendelea kuunda maisha yetu ya baadaye, jamii ya wahusika wa maadili, kwa kushirikiana na majukwaa kama Hackerone, imejitolea kuhakikisha ujumuishaji wake salama. Timu zetu nyekundu za AI zinasimama tayari kusaidia biashara katika kutafuta ugumu wa kupeleka mifano ya AI kwa uwajibikaji, kuhakikisha kuwa uwezo wao wa athari chanya unakuzwa wakati unalinda dhidi ya matokeo yasiyotarajiwa. “Kwa maoni yangu, njia bora ya kupata AI pia ni kupitia matumizi ya umati wa watu. Kwa kushirikisha watapeli kupitia shughuli za timu nyekundu za AI, ninaamini tunaweza kupata uelewa mzuri wa hali inayobadilika haraka ya usalama wa AI na usalama wa AI. Hii itasababisha kupunguzwa kwa hatari katika kutekeleza teknolojia hizi mpya za kupendeza na kuturuhusu kukuza faida zote. ” – Josh Donlan, mhandisi wa Solutions Mwandamizi, Hackerone kwa kutumia utaalam wa watapeli wa maadili na kurekebisha mfano wa fadhila ya bug kushughulikia usalama wa AI usalama , Kitabu cha kucheza cha Hackerone ni njia ya haraka ya kuimarisha AI wakati wa kupunguza hatari zinazowezekana. Kwa viongozi wa teknolojia na usalama wanaoingia katika ujumuishaji wa AI, tunatarajia kushirikiana na wewe kuchunguza jinsi Hackerone na watekaji wa maadili wanaweza kuchangia safari yako ya usalama ya AI. Ili kupata maelezo zaidi juu ya jinsi ya kutekeleza AI Red timu kwa shirika lako, pakua kifupi cha suluhisho la AI Red au wasiliana na wataalam wetu huko Hackerone. URL ya chapisho la asili: https://www.hackerone.com/blog/emerging-playbook-ai-red-teaming-hackerone
Leave a Reply