¿Quieres ideas más inteligentes en tu bandeja de entrada? Regístrese en nuestros boletines semanales para obtener solo lo que importa a los líderes de IA, datos y seguridad empresariales. Suscríbete ahora Tiktok está en los titulares nuevamente hoy después de que la Casa Blanca se unió a la popular aplicación de redes sociales, pero su empresa matriz Bytedance, un gigante web chino, también tuvo un anuncio sorpresa bajo la manga. El equipo de semillas de los investigadores de IA de la compañía lanzó hoy SEED-OSS-36B en el sitio web de AI Code Sharing, Hugging Face. Seed-OSS-36B es una nueva línea de código abierto, modelos de idiomas grandes (LLM) diseñados para un razonamiento avanzado y la usabilidad centrada en el desarrollador con un contexto de token más largo, es decir, cuánta información pueden aceptar los modelos como entradas y luego emitir en un solo intercambio que muchos LLM de las compañías tecnológicas de EE. UU., Incluso líderes como OpenAi y Antrópico. La colección presenta tres variantes principales: la escalada de IA alcanza sus límites de potencia de límites, el aumento de los costos de los tokens y los retrasos de inferencia están remodelando la IA Enterprise. Join our exclusive salon to discover how top teams are: Turning energy into a strategic advantage Architecting efficient inference for real throughput gains Unlocking competitive ROI with sustainable AI systems Secure your spot to stay ahead: https://bit.ly/4mwGngO Seed-OSS-36B-Base with synthetic data Seed-OSS-36B-Base without synthetic data Seed-OSS-36B-Instruct In releasing both synthetic and Versiones no sintéticas del modelo de base de semillas-oss-36b, el equipo de semillas buscó equilibrar el rendimiento práctico con la flexibilidad de la investigación. La variante de datos sintéticos, entrenado con datos de instrucciones adicionales, ofrece consistentemente puntajes más fuertes en puntos de referencia estándar y se pretende como una opción de uso general de mayor rendimiento. El modelo no sintético, por el contrario, omite estos aumentos, creando una base más limpia que evita un sesgo o distorsión potencial introducido por los datos de instrucciones sintéticas. Al proporcionar ambos, el equipo brinda a los usuarios aplicados acceso a mejores resultados al tiempo que garantiza que los investigadores conserven una línea de base neutral para estudiar métodos posteriores a la capacitación. Mientras tanto, el modelo SEED-OSS-36B-Instructo difiere en que está post-entrenado con datos de instrucciones para priorizar la ejecución de la tarea y la instrucción siguiente, en lugar de servir puramente como un modelo de base. Los tres modelos se lanzan bajo la licencia Apache-2.0, lo que permite el uso gratuito, la modificación y la redistribución por parte de investigadores y desarrolladores que trabajan para empresas. Eso significa que pueden usarse para alimentar aplicaciones comerciales, internas a una empresa o orientado externo/cliente, sin pagar bytedance ninguna tarifa de licencia o para el uso de la interfaz de programación de aplicaciones (API). Esto continúa la tendencia de verano de 2025 de compañías chinas que envían poderosos modelos de código abierto con Operai que intentan ponerse al día con su propio dueto de código abierto GPT-OSS lanzado a principios de este mes. El equipo de semillas posiciona SEED-OSS para aplicaciones internacionales, enfatizando la versatilidad en el razonamiento, la ejecución de tareas similares a los agentes y los entornos multilingües. El equipo de semillas, formado en 2023, se ha concentrado en la construcción de modelos de cimientos que pueden servir tanto a los casos de investigación y aplicados. El diseño y el núcleo de las características de la arquitectura detrás de la semilla-oss-36b combinan opciones de diseño familiares, como modelado de lenguaje causal, atención de consulta agrupada, activación de Swiglu, rmsnorm y codificación posicional de cuerda. Cada modelo tiene 36 mil millones de parámetros en 64 capas y admite un vocabulario de 155,000 tokens. Una de las características definitorias es su capacidad nativa de contexto largo, con una longitud máxima de 512,000 tokens, diseñados para procesar documentos extendidos y cadenas de razonamiento sin pérdida de rendimiento. Eso es el doble de la nueva familia Modelo GPT-5 de OpenAI y es aproximadamente equivalente a aproximadamente 1,600 páginas de texto, la longitud de una Biblia cristiana. Otro elemento distintivo es la introducción de un presupuesto de pensamiento, que permite a los desarrolladores especificar cuánto razonamiento debe realizar el modelo antes de entregar una respuesta. Es algo que hemos visto también de otros modelos recientes de código abierto, incluido el nuevo Nemotron-Nano-9B-V2 de Nvidia, también disponible en la cara abrazada. En la práctica, esto significa que los equipos pueden ajustar el rendimiento dependiendo de la complejidad de la tarea y los requisitos de eficiencia de implementación. Los presupuestos se recomiendan en múltiplos de 512 tokens, con 0 que proporciona un modo de respuesta directa/ rendimiento competitivo en puntos de referencia de referencia de terceros publicados con la posición de lanzamiento Seed-OSS-36B entre los modelos de código abierto grandes más fuertes. La variante de instrucción, en particular, publica los resultados de vanguardia en múltiples áreas. Matemáticas y razonamiento: SEED-OSS-36B-Instructo logra el 91.7 por ciento en AIME24 y 65 en BeyondaIEM, ambos representan el «estado del arte» de código abierto (SOTA). Codificación: en LivecodeBench V6, el modelo de instrucciones registra 67.4, otra puntuación SOTA. Manejo de contexto largo: en la regla con una longitud de contexto de 128k, alcanza el 94.6, marcando el resultado más alto de código abierto reportado. Rendimiento del modelo base: la variante base de datos sintéticos ofrece 65.1 en MMLU-Pro y 81.7 en matemáticas, ambos resultados de vanguardia en sus categorías. La versión base no sintética, aunque ligeramente atrasada en muchas medidas, demuestra competitiva por derecho propio. Supera a su contraparte sintética en GPQA-D, proporcionando a los investigadores una línea de base más limpia y sin instrucciones para la experimentación. Para las empresas que comparan las opciones abiertas, estos resultados sugieren que las semillas-oss ofrecen un fuerte potencial en las cargas de trabajo de la codificación, la codificación y el contexto a largo plazo, al tiempo que proporcionan flexibilidad para los casos de uso de la investigación. Acceso e implementación más allá del rendimiento, el equipo de semillas destaca la accesibilidad para desarrolladores y profesionales. Los modelos se pueden implementar utilizando transformadores faciales de abrazo, con soporte de cuantización en formatos de 4 bits y de 8 bits para reducir los requisitos de memoria. También se integran con VLLM para un servicio escalable, incluidos ejemplos de configuración e instrucciones del servidor API. Para reducir aún más las barreras, el equipo incluye scripts para inferencia, personalización rápida e integración de herramientas. Para los líderes técnicos que administran equipos pequeños o que trabajan bajo limitaciones presupuestarias, estas disposiciones están posicionadas para hacer que la experimentación con modelos de 36 mil millones de parámetros sea más accesible. Licencias y consideraciones para los tomadores de decisiones empresariales con los modelos ofrecidos bajo Apache-2.0, las organizaciones pueden adoptarlos sin términos de licencia restrictiva, un factor importante para los equipos que equilibran las preocupaciones legales y operativas. Para los tomadores de decisiones que evalúan el panorama de código abierto, el lanzamiento trae tres conclusiones: puntos de referencia de vanguardia a través del razonamiento de matemáticas, codificación y contexto largo. Un equilibrio entre los modelos capacitados por sintéticos de mayor rendimiento y las líneas de base de investigación limpia. Características de accesibilidad que reducen la sobrecarga operativa para los equipos de ingeniería Lean. Al colocar un rendimiento sólido y una implementación flexible bajo una licencia abierta, el equipo de semillas de Bytedance ha agregado nuevas opciones para empresas, investigadores y desarrolladores por igual. Insights diarias sobre casos de uso de negocios con VB diariamente Si desea impresionar a su jefe, VB Daily lo tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo. Lea nuestra Política de privacidad Gracias por suscribirse. Mira más boletines de VB aquí. Ocurrió un error.