Mittelsteadt añade que Trump podría castigar a las empresas de diversas formas. Cita, por ejemplo, la forma en que el gobierno de Trump canceló un importante contrato federal con Amazon Internet Companies, una decisión probablemente influenciada por la opinión del expresidente sobre el Washington Submit y su propietario, Jeff Bezos.
No sería difícil para los formuladores de políticas señalar evidencia de sesgo político en los modelos de IA, incluso si esto es en ambos sentidos.
A estudio 2023 Investigadores de la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi'an Jiaotong encontraron una variedad de tendencias políticas en diferentes modelos de lenguajes grandes. También mostró cómo este sesgo puede afectar el desempeño del discurso de odio o los sistemas de detección de información errónea.
Otro estudiorealizado por investigadores de la Universidad de Ciencia y Tecnología de Hong Kong, encontró sesgos en varios modelos de IA de código abierto en temas polarizantes como la inmigración, los derechos reproductivos y el cambio climático. Yejin Bang, un candidato a doctorado involucrado en el trabajo, cube que la mayoría de los modelos tienden a inclinarse hacia el liberalismo y el centrado en Estados Unidos, pero que los mismos modelos pueden expresar una variedad de sesgos liberales o conservadores dependiendo del tema.
Los modelos de IA capturan los sesgos políticos porque están entrenados en franjas de datos de Web que inevitablemente incluyen todo tipo de perspectivas. Es posible que la mayoría de los usuarios no sean conscientes de ningún sesgo en las herramientas que utilizan porque los modelos incorporan barreras de seguridad que les impiden generar cierto contenido dañino o sesgado. Sin embargo, estos sesgos pueden filtrarse sutilmente, y la capacitación adicional que reciben los modelos para restringir su producción puede introducir un mayor partidismo. “Los desarrolladores podrían asegurarse de que los modelos estén expuestos a múltiples perspectivas sobre temas divisivos, permitiéndoles responder con un punto de vista equilibrado”, cube Bang.
El problema puede empeorar a medida que los sistemas de inteligencia synthetic se generalicen, cube Ashique KhudaBukhshun científico informático del Instituto de Tecnología de Rochester que desarrolló una herramienta llamada Toxicity Rabbit Gap Framework, que descubre los diferentes sesgos sociales de los grandes modelos de lenguaje. “Tememos que esté a punto de comenzar un círculo vicioso a medida que las nuevas generaciones de LLM se capaciten cada vez más con datos contaminados por contenido generado por IA”, cube.
“Estoy convencido de que ese sesgo dentro de los LLM ya es un problema y probablemente será aún mayor en el futuro”, cube Luca Retenberger, investigador postdoctoral en el Instituto de Tecnología de Karlsruhe que realizó un análisis de los LLM en busca de sesgos relacionados. a la política alemana.
Retenberger sugiere que los grupos políticos también pueden intentar influir en los LLM para promover sus propios puntos de vista por encima de los de los demás. “Si alguien es muy ambicioso y tiene intenciones maliciosas, podría ser posible manipular los LLM en determinadas direcciones”, afirma. “Veo la manipulación de los datos de entrenamiento como un peligro actual”.
Ya se han realizado algunos esfuerzos para cambiar el equilibrio de sesgos en los modelos de IA. En marzo pasado, un programador desarrolló un chatbot más derechista en un esfuerzo por resaltar los sesgos sutiles que vio en herramientas como ChatGPT. El propio Musk ha prometido hacer que Grok, el chatbot de IA creado por xAI, sea “máximamente buscador de la verdad” y menos sesgado que otras herramientas de IA, aunque en la práctica también protege cuando se trata de cuestiones políticas difíciles. (Un firme partidario de Trump y halcón de la inmigración, la propia visión de Musk de ser “menos sesgada” también puede traducirse en resultados más inclinados a la derecha).
Es poco possible que las elecciones de la próxima semana en Estados Unidos solucionen la discordia entre demócratas y republicanos, pero si Trump gana, los rumores sobre la IA anti-despertar podrían hacerse mucho más ruidosos.
Musk ofreció una visión apocalíptica del tema en el evento de esta semana, refiriéndose a un incidente en el que Gemini de Google dijo que una guerra nuclear sería preferible a confundir a Caitlyn Jenner con el género. “Si tienes una IA programada para cosas como esa, podría concluir que la mejor manera de garantizar que nadie sea confundido con el género es aniquilar a todos los humanos, haciendo así que la probabilidad de un futuro error de género sea cero”, dijo.