Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch. Si quieres recibir esto en tu bandeja de entrada todos los miércoles, regístrate aquí.
Después de una breve pausa, volvemos con algunas notas del programa sobre el DevDay de OpenAI.
El discurso de apertura de ayer por la mañana en San Francisco fue notable por su tono moderado, en contraste con el discurso exagerado y exagerado del CEO Sam Altman el año pasado. Este DevDay, Altman no subió al escenario para presentar nuevos y brillantes proyectos. Ni siquiera hizo acto de presencia; jefe de producto de plataforma, Olivier Godement, maestro de ceremonias.
En la agenda de este primero de varios OpenAI DevDays (el próximo se celebrará en Londres este mes, seguido del último en Singapur en noviembre) estaban las mejoras en la calidad de vida. OpenAI lanzó una API de voz en tiempo actual, así como un ajuste de visión, que permite a los desarrolladores personalizar su modelo GPT-4o mediante imágenes. Y la compañía lanzó la destilación de modelos, que toma un modelo de IA grande como GPT-4o y lo utiliza para ajustar un modelo más pequeño.
El enfoque limitado del evento no fue inesperado. OpenAI moderó las expectativas este verano, diciendo que DevDay se centraría en educar a los desarrolladores, no en exhibir productos. Sin embargo, lo que se omitió en el discurso de apertura de 60 minutos del martes planteó dudas sobre el progreso (y el estado) de los innumerables esfuerzos de IA de OpenAI.
No escuchamos sobre lo que podría suceder al generador de imágenes de casi un año de OpenAI, DALL-E 3, ni recibimos una actualización sobre la vista previa limitada de Voice Engine, la herramienta de clonación de voz de la compañía. Aún no hay un cronograma de lanzamiento para el generador de video de OpenAI, Sora, y mamá cube sobre Media Supervisor, la aplicación que la compañía cube que está desarrollando para permitir a los creadores controlar cómo se usa su contenido en el entrenamiento de modelos.
Cuando se le contactó para hacer comentarios, un portavoz de OpenAI le dijo a TechCrunch que OpenAI está “implementando lentamente el [Voice Engine] vista previa para socios más confiables” y que Media Supervisor está “todavía en desarrollo”.
Pero parece claro que OpenAI está al límite, y lo ha estado durante algún tiempo.
Según recientes informar Según The Wall Avenue Journal, los equipos de la compañía que trabajan en GPT-4o solo tuvieron nueve días para realizar evaluaciones de seguridad. Fortuna informes que muchos empleados de OpenAI pensaron que o1, el primer modelo de “razonamiento” de la compañía, no estaba listo para ser presentado.
A medida que avanza hacia una ronda de financiación que podría generar hasta 6.500 millones de dólares, OpenAI tiene sus dedos en muchos pasteles mal horneados. DALL-3 tiene un rendimiento inferior a generadores de imágenes como Flux en muchas pruebas cualitativas; Sora es según se informa tan lento para generar imágenes que OpenAI está renovando el modelo; y OpenAI continúa retrasando el lanzamiento del programa de reparto de ingresos para su mercado de bots, GPT Retailer, que inicialmente fijó para el primer trimestre de este año.
No me sorprende que OpenAI se encuentre ahora acosado por agotamiento del personal y salidas de ejecutivos. Cuando intentas ser un experto en todo, terminas siendo un maestro de nada y no agradando a nadie.
Noticias
Proyecto de ley de IA vetado: El gobernador de California, Gavin Newsom, vetó la SB 1047, un proyecto de ley de alto perfil que habría regulado el desarrollo de la IA en el estado. En un comunicado, Newsom calificó el proyecto de ley de “bien intencionado”, pero “[not] el mejor enfoque” para proteger al público de los peligros de la IA.
Se aprobaron proyectos de ley de IA: Newsom promulgó otras regulaciones sobre IA, incluidos proyectos de ley relacionados con la divulgación de datos de entrenamiento de IA, desnudos ultrafalsos y más.
Y Combinator criticó: La aceleradora de startups Y Combinator está siendo criticada después de que respaldó una empresa de inteligencia synthetic, PearAI, cuyos fundadores admitieron que básicamente clonaron un proyecto de código abierto llamado Continuar.
El copiloto se actualiza: El asistente Copilot de Microsoft, impulsado por inteligencia synthetic, se renovó el martes. Ahora puede leer tu pantalla, pensar profundamente y hablarte en voz alta, entre otros trucos.
El cofundador de OpenAI se une a Anthropic: Durk Kingma, uno de los cofundadores menos conocidos de OpenAI, esta semana anunciado se unirá a Anthropic. Sin embargo, no está claro en qué estará trabajando.
Entrenamiento de IA en las fotos de los clientes: Los Ray-Ban de Meta con tecnología de inteligencia synthetic tienen una cámara en el frente para varias funciones de AR. Pero podría convertirse en un problema de privacidad: la compañía no dirá si planea entrenar modelos con imágenes de los usuarios.
Cámara AI de Raspberry Pi: Raspberry Pi, la empresa que vende computadoras pequeñas y económicas de placa única, lanzó la cámara Raspberry Pi AI, un complemento con procesamiento de inteligencia synthetic integrado.
Trabajo de investigación de la semana.
Las plataformas de codificación de IA han atraído a millones de usuarios y han atraído cientos de millones de dólares de los capitalistas de riesgo. Pero, ¿están cumpliendo sus promesas de aumentar la productividad?
Tal vez no, según un nuevo análisis de Uplevel, una empresa de análisis de ingeniería. Uplevel comparó datos de aproximadamente 800 de sus clientes desarrolladores, algunos de los cuales informaron haber utilizado la herramienta de codificación de inteligencia synthetic de GitHub, Copilot, y otros no. Uplevel descubrió que los desarrolladores que confiaban en Copilot introdujeron un 41% más de errores y no eran menos susceptibles al agotamiento que aquellos que no usaron la herramienta.
Los desarrolladores han mostrado entusiasmo por las herramientas de codificación asistida impulsadas por IA a pesar de las preocupaciones relacionadas no solo con la seguridad sino también con la infracción de derechos de autor y la privacidad. El gran mayoría de los desarrolladores que respondieron a la última encuesta de GitHub dijeron que habían adoptado herramientas de inteligencia synthetic de alguna forma. Las empresas también son optimistas: Microsoft informó en abril que Copilot había más de 50.000 clientes empresariales.
modelo de la semana
Liquid AI, una filial del MIT, anunció esta semana su primera serie de modelos de IA generativa: Liquid Basis Fashions, o LFM para abreviar.
“¿Así que lo que?” podrías preguntar. Los modelos son una mercancía: prácticamente todos los días se lanzan nuevos. Bueno, los LFM utilizan una arquitectura de modelo novedosa y obtienen puntuaciones competitivas en una variedad de puntos de referencia de la industria.
La mayoría de los modelos son lo que se conoce como transformador. Propuesto por un equipo de investigadores de Google en 2017, el transformador se ha convertido en la arquitectura del modelo de IA generativa dominante. con mucho. Los transformadores sustentan a Sora y la versión más reciente de Steady Diffusion, así como modelos de generación de texto como Claude de Anthropic y Gemini de Google.
Pero los transformadores tienen limitaciones. En specific, no son muy eficientes a la hora de procesar y analizar grandes cantidades de datos.
Liquid afirma que sus LFM tienen una huella de memoria reducida en comparación con las arquitecturas de transformadores, lo que les permite absorber mayores cantidades de datos en el mismo {hardware}. “Al comprimir eficientemente las entradas, los LFM pueden procesar secuencias más largas [of data]”, escribió la empresa en un publicación de blog.
Los LFM de Liquid están disponibles en varias plataformas en la nube y el equipo planea continuar perfeccionando la arquitectura con lanzamientos futuros.
bolsa de agarre
Si parpadeaste, probablemente te lo perdiste: una empresa de inteligencia synthetic presentó su solicitud para cotizar en bolsa esta semana.
Llamada Cerebras, la startup con sede en San Francisco desarrolla {hardware} para ejecutar y entrenar modelos de IA y compite directamente con Nvidia.
Entonces, ¿cómo espera Cerebras competir contra el gigante de los chips, que ordenó ¿entre el 70% y el 95% del segmento de chips de IA en julio? Sobre el rendimiento, cube Cerebras. La compañía afirma que su chip insignia de IA, que vende directamente y ofrece como servicio a través de su nube, puede superar al {hardware} de Nvidia.
Pero Cerebras aún tiene que traducir esta supuesta ventaja de rendimiento en ganancias. La empresa tuvo una pérdida neta de 66,6 millones de dólares en el primer semestre de 2024. por presentaciones ante la SEC. Y durante el año pasado, Cerebras informó una pérdida neta de 127,2 millones de dólares sobre unos ingresos de 78,7 millones de dólares.
Cerebras podría intentar recaudar hasta mil millones de dólares a través de la IPO, de acuerdo a a Bloomberg. Hasta la fecha, la empresa ha recaudado 715 millones de dólares en capital de riesgo y hace tres años estaba valorada en más de 4 mil millones de dólares.