Chanzo: www.mcafee.com – Mwandishi: Charles McFarland. Huku kukiwa na uharibifu wa moto wa mwituni wa Kaunti ya Los Angeles – unaoteketeza eneo mara mbili ya ukubwa wa Manhattan – watafiti wa vitisho wa McAfee wamegundua na kuthibitisha kuongezeka kwa habari potofu zinazozalishwa na AI, zikiwemo picha za kushangaza lakini za uwongo za ishara ya Hollywood iliyoteketea kwa moto. Kupinga Uwongo: Hollywood Sign Safe Huku Uvumi wa Moto wa nyikani kwenye Mitandao ya Kijamii Mitandao ya kijamii na habari za matangazo ya ndani zimejaa picha za udanganyifu zinazodai ishara ya Hollywood imeteketea kwa moto, huku watu wengi wakidai kuwa alama hiyo ya kihistoria “imezingirwa na moto.” Kielelezo 1. Picha iliyotengenezwa na AI ilishirikiwa kwenye Facebook tarehe 9 Januari 2025. Angalia ukweli: Ishara ya Hollywood bado imesimama na iko sawa. Mlisho wa moja kwa moja wa ishara ya Hollywood unaonyesha wazi ishara hiyo haiko katika njia ya madhara au kumezwa na moto. Kielelezo cha 2: Mwonekano wa moja kwa moja wa ishara ya Hollywood iliyopigwa saa 3.29 PT mnamo Ijumaa, Januari 10, 2025. Watafiti wa McAfee wamekagua picha nyingi zilizoshirikiwa kote X, Facebook, Tik Tok na Instagram, na wamethibitisha kuwa hizi ni picha na video zinazozalishwa na AI. . Kando na uchanganuzi kutoka kwa watafiti wetu wa vitisho, teknolojia ya utambuzi wa picha ya McAfee imeripoti picha zinazoonyeshwa hapa (na nyingi zaidi) za Hollywood Hills kama AI-inayotolewa, na moto ukiwa jambo kuu katika uchanganuzi wake. Uchunguzi wa McAfee ulifuatilia picha nyingi hadi kwenye Gemini, jukwaa la kuzalisha picha la AI. Ugunduzi huu unasisitiza kuongezeka kwa hali ya juu zaidi ya usanisi wa picha ghushi, ambapo picha na video ghushi zinaweza kuundwa kwa sekunde tu, lakini zinaweza kusambazwa hadi kutazamwa zaidi ya milioni moja kwa saa 24 tu, kama vile chapisho la kijamii lililoshirikiwa kwenye Facebook. chini. Kielelezo cha 3: Picha ya skrini ya video feki ya ishara ya Hollywood inawaka moto. Video hii iligunduliwa kwenye Facebook na tayari ilikuwa imetazamwa mara milioni 1.3 ndani ya saa 24. McAfee CTO, Steve Grobman anasema, “Zana za AI zimeongeza kuenea kwa habari potofu na habari potofu, kuwezesha maudhui ya uwongo – kama picha bandia za hivi majuzi za ishara ya Hollywood iliyomezwa na moto – kuzunguka kwa kasi isiyokuwa ya kawaida. Hii inafanya kuwa muhimu kwa watumiaji wa mitandao ya kijamii kuwa macho, kukaribia machapisho yanayoenezwa na virusi kwa mashaka, na kuthibitisha vyanzo ili kutofautisha ukweli na uwongo.” Kielelezo 4. Mifano ya juu ya AI ya McAfee inatambua picha ambazo zimebadilishwa au kuundwa kwa kutumia AI. Ramani ya joto inaonyesha maeneo ambayo yametumiwa kutambua na kuthibitisha matumizi ya AI. Wakati Mashabiki wa Mitandao ya Kijamii Picha za Moto wa Taarifa potofu zinazozalishwa na AI ni rahisi sana kutengeneza. Katika chini ya dakika moja, tuliweza kutoa picha ya kusadikisha ya ishara ya Hollywood Hills inawaka bila malipo kwa kutumia picha ya AI inayozalisha programu ya Android (hatujachapisha picha hizi, zile zinazopatikana kwenye mitandao ya kijamii pekee). Nyingi za programu hizi zipo za kuchagua. Baadhi huchuja maudhui yenye vurugu na mengine yanayochukiza. Hata hivyo, picha kama vile Milima ya Hollywood hutia saini kuwaka moto, huanguka nje ya ngome za kawaida. Zaidi ya hayo, muundo wa biashara wa nyingi za programu hizi hujumuisha mikopo isiyolipishwa kama jaribio, na kuifanya iwe haraka na rahisi kuunda na kushiriki. Uzalishaji wa picha za AI ni zana inayopatikana kwa wingi na inayofikika kwa urahisi inayotumiwa katika kampeni nyingi za taarifa potofu. Tazama hapa chini kwa mifano zaidi: Kielelezo 5. Mifano kwenye Instagram. Baada ya ukaguzi wa karibu, baadhi ya picha zilikuwa na picha za watermark zilizoandikwa wazi kutoka kwa zana za Generative AI kama vile Grok. Na ingawa hii inaweza kuwa ishara dhahiri kwa watu wengine, kuna wengine wengi ambao hawajui au kutambua alama kama hizo. Kielelezo 6. Watermark ya Grok inaonekana wazi katika picha hapo juu. Jinsi ya Kutambua Deepfake Kuna hatua kadhaa za moja kwa moja ambazo unaweza kuchukua ili kugundua bandia. Tunapendekeza mchanganyiko wa kutilia shaka na uhamasishaji pamoja na teknolojia sahihi, kama vile Kigunduzi cha McAfee Deepfake. Ingawa sio AI zote ni hasidi au ‘mbaya’, teknolojia hii kwa kawaida hutumiwa na watendaji wabaya kwa nia ovu inapokuja suala la ulaghai wa kina, habari potofu na habari potofu. Ingawa mambo ya kina yaliyoainishwa hapa yanaonekana kutokuwa na nia ovu – zaidi ya kuwaarifu vibaya watumiaji wa mitandao ya kijamii – tunaweza kutarajia haya yatatokea ambapo walaghai huunda uwongo wa kina kama sehemu ya ulaghai wa uchangiaji, na kwa hivyo tunashauri kila mtu kuwa macho na kujifunza zaidi jinsi ya kuona deepfakes mtandaoni: Fikiria ni nani aliyechapisha. Thibitisha ni nani aliyechapisha maudhui. Ikiwa ni rafiki, waliituma tena? Nani alikuwa bango asili? Je, inaweza kuwa akaunti ya roboti au bogus? Je, akaunti imetumika kwa muda gani? Ni aina gani ya machapisho mengine yamejitokeza juu yake? Ikiwa shirika liliichapisha, itafute mtandaoni. Je, inaonekana kuwa na sifa nzuri? Kazi hii ndogo ya upelelezi inaweza isitoe jibu dhahiri, lakini inaweza kukujulisha ikiwa kitu kinaonekana kuwa mbaya. Tafuta chanzo kingine. Iwe zinalenga kueneza habari zisizo za kweli, ulaghai, au kuzidisha hisia, bandia za kina hasidi hujaribu kujifanya kuwa halali. Zingatia klipu ya video ambayo inaonekana kama ilirekodiwa kwenye mkutano na waandishi wa habari. Takwimu nyuma ya podium inasema mambo ya kukasirisha. Je, hilo lilitokea kweli? Angalia vyanzo vingine vilivyoanzishwa na kuheshimiwa. Ikiwa hawataripoti juu yake, kuna uwezekano kwamba unashughulika na uwongo wa kina. Vuta karibu. Utazamaji wa kina wa picha au video za uwongo mara nyingi hufichua kutofautiana na mambo yasiyo ya kawaida. Hii inaweza kuja katika umbo la vidole sita kwa mkono mmoja, au labda ngozi inaonekana nyororo sana au kuna kitu cha ajabu kwenye tabasamu – hizi zote ni ishara za kujulikana. Jizoeze mashaka yenye afya. Daima: Zana za AI zikiboreshwa haraka sana, hatuwezi tena kuchukua mambo sawa sawa. Feki za kina hasidi hutazama kudanganya, kudanganya, na kutoa taarifa. Na watu wanaoziunda wanatumai kuwa utatumia maudhui yao kwa gulp moja bila kufikiria. Kuchunguza ni muhimu leo. Kukagua ukweli ni lazima, haswa kadiri bandia zinavyoonekana kuwa kali na kali zaidi kadri teknolojia inavyoendelea. Mengi ya bandia za kina zinaweza kukuvutia kwenye pembe za michoro za mtandao. Maeneo ambayo programu hasidi na tovuti za hadaa hukita mizizi. Fikiria kutumia programu ya kina ya ulinzi mtandaoni na McAfee+ na McAfee Deepfake Detector ili kuweka usalama. Kando na vipengele kadhaa vinavyolinda vifaa, faragha na utambulisho wako, vinaweza pia kukuonya kuhusu tovuti zisizo salama. Url ya Chapisho Asilia: https://www.mcafee.com/blogs/internet-security/how-social-media-is-spreading-la-misinformation-like-wildfire/