Jiunge na majarida yetu ya kila siku na ya kila wiki kwa masasisho ya hivi punde na maudhui ya kipekee kwenye chanjo ya AI inayoongoza katika tasnia. Jifunze Zaidi kampuni kubwa ya biashara ya mtandaoni ya Uchina, Alibaba, imetoa modeli ya hivi punde zaidi katika familia yake ya Qwen inayoendelea kupanuka. Hii inajulikana kama Qwen with Questions (QwQ), na inatumika kama mshindani wa hivi punde wa chanzo huria kwa modeli ya hoja ya o1 ya OpenAI. Kama miundo mingine mikubwa ya hoja (LRMs), QwQ hutumia mizunguko ya ziada ya kukokotoa wakati wa makisio kukagua majibu yake na kusahihisha makosa yake, na kuifanya ifae zaidi kwa kazi zinazohitaji mawazo na upangaji wa kimantiki kama vile hesabu na usimbaji. Qwen ni nini na Maswali (OwQ?) na inaweza kutumika kwa madhumuni ya kibiashara? Alibaba imetoa toleo la kigezo la bilioni 32 la QwQ na muktadha wa ishara 32,000. Kwa sasa muundo uko katika onyesho la kukagua, ambayo ina maana kwamba toleo la utendaji wa juu zaidi linaweza kufuata. Kulingana na majaribio ya Alibaba, QwQ inashinda o1-hakikisho kwenye alama za AIME na MATH, ambazo hutathmini uwezo wa kihisabati wa kutatua matatizo. Pia hufaulu zaidi o1-mini kwenye GPQA, kigezo cha hoja za kisayansi. QwQ ni duni kwa o1 kwenye alama za usimbaji za LiveCodeBench lakini bado ina ubora zaidi wa miundo mingine ya mipaka kama vile GPT-4o na Claude 3.5 Sonnet. Mfano wa matokeo ya Qwen na Maswali QwQ haiji na karatasi inayoandamana inayoelezea data au mchakato unaotumika kufundisha modeli, ambayo inafanya kuwa ngumu kutoa matokeo ya modeli. Hata hivyo, kwa kuwa mfano umefunguliwa, tofauti na OpenAI o1, “mchakato wake wa kufikiri” haujafichwa na unaweza kutumika kuelewa jinsi sababu za mfano wakati wa kutatua matatizo. Alibaba pia imetoa mfano huo chini ya leseni ya Apache 2.0, ambayo inamaanisha inaweza kutumika kwa madhumuni ya kibiashara. ‘Tuligundua kitu kikubwa’ Kulingana na chapisho la blogi lililochapishwa pamoja na kutolewa kwa mwanamitindo, “Kupitia uchunguzi wa kina na majaribio mengi, tuligundua jambo la kina: tulipopewa muda wa kutafakari, kuhoji, na kutafakari, uelewa wa mwanamitindo hisabati na programu huchanua kama ua linalofungua jua… Mchakato huu wa kutafakari kwa makini na kujiuliza maswali binafsi husababisha mafanikio ya ajabu katika kutatua matatizo magumu.” Hii ni sawa na kile tunachojua kuhusu jinsi mifano ya hoja inavyofanya kazi. Kwa kutoa tokeni zaidi na kukagua majibu yao ya awali, miundo ina uwezekano mkubwa wa kusahihisha makosa yanayoweza kutokea. Marco-o1, kielelezo kingine cha hoja kilichotolewa hivi majuzi na Alibaba kinaweza pia kuwa na vidokezo vya jinsi QwQ inavyoweza kufanya kazi. Marco-o1 hutumia Utafutaji wa Miti wa Monte Carlo (MCTS) na kujitafakari kwa wakati ili kuunda matawi tofauti ya hoja na kuchagua majibu bora zaidi. Muundo huu ulifunzwa juu ya mchanganyiko wa mifano ya msururu wa mawazo (CoT) na data ya sanisi inayozalishwa kwa algoriti za MCTS. Alibaba anadokeza kwamba QwQ bado ina mapungufu kama vile kuchanganya lugha au kukwama katika mizunguko ya hoja ya mduara. Muundo huo unapatikana kwa kupakuliwa kwenye Hugging Face na onyesho la mtandaoni linaweza kupatikana kwenye Nafasi za Kukumbatiana za Uso. Enzi ya LLM inatoa nafasi kwa LRMs: Miundo Kubwa ya Kuangazia Kutolewa kwa o1 kumesababisha hamu kubwa ya kuunda LRM, ingawa hakuna mengi yanayojulikana kuhusu jinsi modeli hiyo inavyofanya kazi chini ya kofia kando na kutumia kipimo cha muda wa marejeleo ili kuboresha majibu ya modeli. Sasa kuna washindani kadhaa wa Kichina kwa o1. Maabara ya Kichina ya AI ya DeepSeek ilitoa hivi majuzi R1-Lite-Preview, mshindani wake wa o1, ambayo kwa sasa inapatikana tu kupitia kiolesura cha gumzo cha mtandaoni cha kampuni. R1-Lite-Preview inaripotiwa kuwa inashinda o1 kwenye vigezo kadhaa muhimu. Muundo mwingine uliotolewa hivi majuzi ni LLaVA-o1, uliotayarishwa na watafiti kutoka vyuo vikuu vingi nchini Uchina, ambao huleta dhana ya wakati wa uelekezaji kwa mifano ya lugha ya maono ya chanzo-wazi (VLMs). Kuzingatia LRMs kunakuja wakati wa kutokuwa na uhakika juu ya mustakabali wa sheria za uwekaji viwango. Ripoti zinaonyesha kuwa maabara za AI kama vile OpenAI, Google DeepMind, na Anthropic zinapata faida zinazopungua kwenye mafunzo ya miundo mikubwa. Na kuunda idadi kubwa ya data ya mafunzo ya ubora kunazidi kuwa ngumu kwani wanamitindo tayari wanafunzwa kuhusu matrilioni ya tokeni zinazokusanywa kutoka kwenye mtandao. Wakati huo huo, kipimo cha muda wa uelekezaji kinatoa njia mbadala ambayo inaweza kutoa mafanikio yanayofuata katika kuboresha uwezo wa kizazi kijacho cha miundo ya AI. Kuna ripoti kwamba OpenAI inatumia o1 kutoa data ya hoja ya kisanii kutoa mafunzo kwa kizazi kijacho cha LLM zake. Kutolewa kwa mifano ya wazi ya hoja kuna uwezekano wa kuchochea maendeleo na kufanya nafasi iwe ya ushindani zaidi. VB Daily Kukaa katika kujua! Pata habari za hivi punde katika kikasha chako kila siku Kwa kujisajili, unakubali Sheria na Masharti ya VentureBeat. Asante kwa kujisajili. Angalia majarida zaidi ya VB hapa. Hitilafu imetokea.
Leave a Reply