Los tres principales lenguajes de programación del Índice de la Comunidad de Programación TIOBE sufrieron un importante cambio en septiembre, ya que C cayó al cuarto lugar de la lista. Esta es la puntuación más baja que C ha tenido desde su primera aparición en la creación del índice en 2001. C pasó del 9,17 % en agosto al 8,89 % en septiembre. Esto continúa la tendencia a la baja de C, que alcanzó un máximo del 16,56 % en diciembre de 2022 y ha caído en gran medida desde entonces. El Índice de la Comunidad de Programación TIOBE muestra las tendencias en los lenguajes de programación según el volumen de los motores de búsqueda. Tendencias interanuales del Índice de la Comunidad de Programación TIOBE. Imagen: TIOBE Software ¿Por qué cayó la popularidad de C? «Los programas grandes en C son difíciles de mantener debido a la falta de funciones orientadas a objetos», escribió el director ejecutivo de TIOBE Software, Paul Jansen, en la publicación mensual del Índice TIOBE. «Ahora que los sistemas integrados tienden a crecer en funcionalidad y, por lo tanto, en tamaño de código, y dado que cada vez más compiladores integrados tienen un buen soporte de C++, existe una tendencia a cambiar de C a C++». Además, el gobierno de EE. UU. identificó a C como un lenguaje inseguro para la memoria. Las empresas pueden elegir Rust en lugar de C para cumplir con los estándares de seguridad de la memoria. El lugar de C en el índice ha variado a lo largo de las décadas, pero una tendencia descendente actual comenzó en diciembre de 2022. Imagen: TIOBE Software Sin embargo, «C podría perder su mojo, pero permanecerá en el top 10 del índice TIOBE durante mucho tiempo», escribió Jansen. «Su base instalada es increíble y es parte de un trillón de sistemas críticos para la seguridad en todo el mundo». C todavía genera código de alto rendimiento, señaló Jansen, y ha sido una piedra angular de los sistemas integrados. Sin embargo, su falta de características orientadas a objetos dificulta su escalabilidad. C++ resuelve ese problema. Cobertura de desarrolladores de lectura obligada Otros cambios en el índice TIOBE en septiembre La salida de C de los tres primeros puestos de la lista dejó espacio para que Java ocupara el tercer lugar, pasando del 9,16% en agosto al 9,45% en septiembre. Fortran se mantuvo en el décimo lugar.
Etiqueta: revelador
Un controvertido proyecto de ley que exigiría a los desarrolladores de modelos avanzados de IA que adopten medidas de seguridad está un paso más cerca de convertirse en ley. El proyecto de ley, SB 1047, exigiría a los desarrolladores de futuros modelos avanzados de IA que creen barandillas para evitar que la tecnología se utilice indebidamente para realizar ciberataques a infraestructuras críticas como las centrales eléctricas. Los desarrolladores tendrían que presentar sus planes de seguridad al fiscal general, que podría responsabilizarlos si los modelos de IA que controlan directamente causaran daños o una amenaza inminente a la seguridad pública. El proyecto de ley, presentado por el senador Scott Wiener (demócrata de San Francisco), fue aprobado por la Asamblea estatal el miércoles, con 41 votos a favor y nueve en contra. El jueves, la medida fue aprobada por el Senado estatal en una votación de concurrencia. Ahora se dirige a la oficina del gobernador Gavin Newsom, aunque no está claro si Newsom firmará o vetará el proyecto de ley. «La innovación y la seguridad pueden ir de la mano, y California está liderando el camino», dijo Wiener en un comunicado. Un portavoz de Newsom dijo que el gobernador evaluará el proyecto de ley cuando llegue a su escritorio. El proyecto de ley de Wiener fue debatido intensamente en la comunidad tecnológica del Área de la Bahía. Recibió el apoyo del Centro para la Seguridad de la IA, el director ejecutivo de Tesla, Elon Musk, el consejo editorial del LA Times y la startup de IA con sede en San Francisco Anthropic. Pero los líderes demócratas del Congreso, así como los actores destacados de la IA, incluidos Meta y OpenAI, se opusieron a él, quienes expresaron su preocupación sobre si la legislación sofocaría la innovación en California. Los líderes demócratas del Congreso, incluida la expresidenta de la Cámara de Representantes Nancy Pelosi, el representante Ro Khanna (demócrata por Fremont) y la representante Zoe Lofgren (demócrata por San José), también se han opuesto al proyecto de ley e instaron a Newsom a vetarlo. Argumentan que la legislación podría dañar la creciente industria de la IA de California, hogar del fabricante de ChatGPT OpenAI, y citan los esfuerzos que está haciendo el Congreso relacionados con la IA. «Existe un riesgo real de que las empresas decidan constituirse en otras jurisdicciones o simplemente no lanzar modelos en California», escribieron Khanna, Lofgren y otros seis representantes demócratas del Congreso en una carta a Newsom. “Si bien queremos que California sea líder en inteligencia artificial de una manera que proteja a los consumidores, los datos, la propiedad intelectual y más, la SB 1047 es más dañina que útil en esa búsqueda”, dijo Pelosi en un comunicado. Wiener y otros legisladores que apoyan el proyecto de ley no están de acuerdo, y sostienen que fomentaría la innovación al mismo tiempo que protegería al público. “Hay que poner barandillas”, dijo el asambleísta Devon Mathis (republicano de Visalia) antes de la votación de la Asamblea el miércoles por la tarde. “Tenemos que asegurarnos de que van a ser actores responsables”. Los defensores de la SB 1047 dicen que requiere que los desarrolladores sean responsables de la seguridad de los modelos avanzados de inteligencia artificial bajo su control, lo que podría ayudar a prevenir eventos catastróficos de inteligencia artificial en el futuro. “Me preocupa que las empresas de tecnología no resuelvan los riesgos significativos asociados con la inteligencia artificial por sí solas porque están atrapadas en su carrera por la participación de mercado y la maximización de las ganancias”, dijo Yoshua Bengio, profesor de la Universidad de Montreal y fundador y director científico de Mila, el Instituto de Inteligencia Artificial de Quebec, en una conferencia de prensa esta semana. «Simplemente no podemos dejar que califiquen sus propios deberes y esperen que todo salga bien». Los partidarios también dicen que la IA debería ser regulada de manera similar a otras industrias que plantean riesgos potenciales de seguridad. «Esta es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047», escribió Musk en X el lunes. «Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/tecnología que sea un riesgo potencial para el público». A principios de este mes, el proyecto de ley fue aprobado por un comité clave del Senado estatal después de que Wiener hiciera cambios significativos, incluida la eliminación de una pena por perjurio y el cambio del estándar legal para los desarrolladores con respecto a la seguridad de sus modelos avanzados de IA. El director ejecutivo de la startup de IA Anthropic con sede en San Francisco, Dario Amodei, dijo que creía que los «beneficios del proyecto de ley probablemente superen sus costos» en una carta del 21 de agosto a Newsom. La carta no respaldaba el proyecto de ley, pero compartía el punto de vista de la empresa sobre los pros y los contras. «Queremos ser claros… en que la SB 1047 aborda preocupaciones reales y serias con el riesgo catastrófico en los sistemas de IA», escribió Amodei. «Los sistemas de IA están avanzando en capacidades extremadamente rápido, lo que ofrece una gran promesa para la economía de California y un riesgo sustancial». Pero algunas empresas de tecnología, incluida OpenAI, dijeron que se oponían al proyecto de ley incluso después de los cambios. «Las amplias y significativas implicaciones de la IA para la competitividad y la seguridad nacional de EE. UU. requieren que la regulación de los modelos de frontera se moldee e implemente a nivel federal», escribió el director de estrategia de OpenAI, Jason Kwon, en una carta del 21 de agosto a Wiener. «Un conjunto de políticas de IA impulsadas por el gobierno federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a EE. UU. para liderar el desarrollo de estándares globales». Wiener dijo que daría la bienvenida a una ley federal sólida de seguridad de la IA que prevalezca sobre su proyecto de ley. «Si la experiencia pasada es una indicación, promulgar una ley de seguridad de IA de este tipo es una indicación de que la implementación de una ley federal de seguridad de IA … [federal] “La ley SB 1047 será una batalla cuesta arriba”, dijo Wiener en un comunicado. “Mientras tanto, California debería seguir liderando políticas como la SB 1047 que fomentan la innovación y al mismo tiempo protegen al público”. La SB 1047 se encuentra entre los aproximadamente 50 proyectos de ley relacionados con la IA en la Legislatura que abordan varios aspectos del impacto de la tecnología en el público, incluidos los empleos, las falsificaciones profundas y la seguridad.