sábado, 24 de mayo de 2025

Lo último sobre Harvard vs. Trump, brevemente explicado

 

 


 

Esta historia apareció en The Logoff, un boletín diario que te ayuda a mantenerte informado sobre la administración Trump sin dejar que las noticias políticas te dominen.

 

 

La administración Trump abrió un nuevo frente en su guerra contra Harvard esta semana, intentando impedir que todos los estudiantes internacionales asistan a la universidad, y recibiendo rápidamente una sanción de un juez federal.

¿Qué hizo la administración Trump?

El jueves, el Departamento de Seguridad Nacional revocó la autorización de Harvard para matricular estudiantes internacionales, alegando que la universidad está "perpetuando un ambiente universitario inseguro" y "emplea políticas racistas de 'diversidad, equidad e inclusión'". Esta medida puso a los casi 7000 estudiantes internacionales de Harvard en riesgo de perder sus visas.

¿Qué hay de nuevo? 

Harvard demandó rápidamente a la administración, y un juez federal emitió esta mañana una orden de restricción temporal, lo que significa que la universidad podrá seguir admitiendo estudiantes extranjeros, que representan más de una cuarta parte de su alumnado. 

¿Qué más ha hecho la administración para atacar a Harvard?

 Trump ha intentado tomar el control del currículo y la política de admisión de Harvard, y ha recortado casi 4 mil millones de dólares en subvenciones federales; el New York Times ha dado seguimiento a al menos ocho investigaciones independientes realizadas por seis agencias federales dirigidas a la escuela, y Trump ha planteado la revocación de la exención de impuestos de la universidad.


¿Por qué la administración Trump ataca a Harvard?

La administración Trump ha acusado a Harvard y a otras universidades de élite de perpetuar el antisemitismo en el campus, pero sus ataques han cobrado rápidamente alcance. Como ha informado el periodista Andrew Prokop, el enfoque particular de Trump en las universidades forma parte de una campaña ideológica más amplia para romper lo que la derecha percibe como instituciones liberales. Pero Harvard ha contraatacado: además de la demanda del viernes, demandó a la administración el mes pasado por recortes de fondos.

¿Qué sigue? 

Los estudiantes internacionales de Harvard están protegidos por ahora, y sus demandas contra la administración Trump se resolverán en los tribunales. Pero la última andanada de Trump nos recuerda que los esfuerzos de la administración por perseguir a sus supuestos enemigos no dan señales de disminuir.

Y con esto, es hora de cerrar la sesión…




Los graduados de la Universidad de Maryland asistieron a su ceremonia de graduación el jueves, como una ceremonia normal, pero con la Kermit the Frog como orador (su creador, Jim Henson, se graduó de la UMD). Gustavo instó a los estudiantes a mantenerse conectados con sus amigos y seres queridos, y con sus sueños, "sin importar cuán grandes sean". Un buen consejo para todos. Gracias por leer, que tengan un excelente fin de semana.

Inteligencia Artificial Alucinando

 

 


 

La IA puede escribir, pintar y chatear de forma impresionante, pero tras su magia, comete errores graciosos, extraños y, a veces, preocupantes. Aquí tienes un vistazo entre bastidores.


Comienza con una sensación de magia. Escribes una frase sencilla como "Un niño construyendo un castillo de arena en la Luna" y en cuestión de segundos obtienes una imagen fascinante y llena de detalles, como si la hubiera capturado un fotógrafo espacial con acceso a un estudio de Disney. Quedas encantado. El futuro ya está aquí. Pero entonces le pides a la IA que ilustre a tu abuela celebrando su 90 cumpleaños y descubres que sostiene dos copas de vino, tiene tres manos y un ojo en la frente. De repente, el futuro parece menos una utopía y más un cuadro de Dalí tras una noche de insomnio.

Durante la última década, la inteligencia artificial ha evolucionado de un juguete a una potencia. Escribe, traduce, analiza, describe, recomienda, argumenta y, en cierto modo, incluso imita la consciencia. Pero bajo el brillo digital se esconden fallos, distorsiones y, a veces, malentendidos fundamentales. Cuanto más avanzados se vuelven los sistemas, más percibimos esos momentos en que son ridículos, balbucean o simplemente están equivocados. Bienvenidos a la nueva realidad: la computadora puede saberlo todo, pero sigue sin entender nada.


Los generadores de imágenes basados en IA, como Midjourney y DALL-E, ofrecen una sofisticada muestra de creatividad digital, hasta que se topan con el desafío más antiguo del mundo: el cuerpo humano. Los resultados varían desdeDe lo divertido a lo inquietante. Manos con seis o siete dedos, ojos de diferentes tamaños, dientes en cantidades industriales y rostros que se transforman de fotograma a fotograma. Los algoritmos aprenden de millones de imágenes, pero carecen de un concepto real de anatomía o fisiología. Cuando se requiere coherencia —por ejemplo, al crear una serie de imágenes del mismo personaje—, simplemente no logran mantener la consistencia básica.

Estos errores también se extienden a las leyes de la física: objetos flotantes, tazas que se derriten al formar mesas, luz que cae desde direcciones imposibles y sombras que simplemente no existen. Y si pides texto hebreo incrustado, probablemente recibirás letras borrosas, una mezcla irreconocible de hebreo e inglés, y una comprensión total de la dirección de derecha a izquierda. Esto no es una falla de diseño, sino una profunda falla perceptiva.

Invenciones, errores y conocimientos obsoletos


Una de las fallas más comentadas de modelos de lenguaje como ChatGPT y Gemini es su tendencia a inventar. Inventan artículos, entrevistan a personas inexistentes, inventan nombres de profesores imaginarios y añaden fechas, fuentes y citas, todo discretamente y con un tono autoritario. El problema se agrava aún más con la actualidad: dado que los modelos se limitan a información congelada en un momento específico, desconocen lo que ocurrió después. Preguntas sobre política, pandemias, ciencia o incluso nuevas tecnologías pueden dar lugar a respuestas desconectadas de la realidad.

Más allá de la información obsoleta, existe un problema más profundo: inconsistencias, saltos lógicos, detalles olvidados de conversaciones anteriores, errores básicos de cálculo y resúmenes que distorsionan la intención del autor. Un sistema capaz de comprender la estructura de las oraciones aún no comprende las ideas, y esa es una distinción crucial.


La IA puede leer poesía y responder en verso, pero ¿con humor? Ahí es donde se producen los verdaderas fallas. La capacidad de captar el sarcasmo, los matices, los juegos de palabras o la entonación oculta sigue siendo deficiente. Incluso las dobles negaciones o las indirectas sutiles suelen recibirse con solemnidad, y a veces con un fracaso cómico. Este problema también es evidente en la traducción. A pesar de las impresionantes mejoras, la traducción automática aún adolece de ser demasiado literal, utilizando frases inexistentes en el idioma de destino y una sintaxis que refleja más el idioma de origen que la fluidez natural del traducido.

Amabilidad excesiva, falta de objetividad y respuestas genéricasPara evitar problemas legales, políticos o morales, muchos sistemas de IA están programados para ser agradables e incluso halagadores. Pero este intento de hacerlos inofensivos a menudo implica una pérdida de valor.

Pídele al sistema su opinión sobre un tema controvertido y recibirás una respuesta que evita cuidadosamente tomar postura. Pídele una crítica y recibirás apoyo. Plantea una pregunta abierta, y el modelo a menudo la reformulará en lugar de responderla.

Esta amabilidad también se traduce en la producción de contenido genérico, superficial y alarmantemente uniforme en su tono. A menudo da la impresión de que las respuestas las escribió un relacionista público obsesionado con la corrección política. La capacidad de pensar de forma innovadora solo existe cuando se solicita explícitamente, e incluso entonces, solo dentro de los límites predefinidos.

Entonces ¿por qué sucede esto?


Los errores no son aleatorios, sino resultado directo del funcionamiento de los sistemas de IA. En primer lugar, no "comprenden" el mundo, sino que lo imitan mediante probabilidades aprendidas de millones de ejemplos. Carecen de una comprensión conceptual del significado, el contexto, la moralidad o la anatomía; solo tienen probabilidades estadísticas de lo que suele aparecer junto a lo que ocurre. En segundo lugar, el resultado depende directamente de la calidad y la precisión de la indicación. Una indicación demasiado general producirá un resultado vago; una demasiado compleja puede generar confusión.

Además, los modelos se basan en conjuntos de datos estáticos, lo que significa que no están conectados a internet en tiempo real ni se actualizan con los eventos ocurridos tras la congelación de sus datos. Esta es una limitación fundamental que afecta la precisión y fiabilidad de la información que proporcionan. Los sesgos derivados de los materiales de formación, los datos multilingües, las traducciones inconsistentes o simplemente los errores estadísticos son factores adicionales que pueden generar resultados incorrectos, inconsistentes y, en ocasiones, completamente absurdos.

Estos errores no son indicios de fracaso, sino de un proceso. La inteligencia artificial no es consciencia, sino una herramienta. Y tiene una función clara: potenciar las capacidades humanas, no reemplazarlas. Las disfunciones, defectos y errores de la IA no son indicios de debilidad tecnológica, sino recordatorios de la profunda complejidad humana.

Así que la próxima vez que la modelo se ofrezca a redactar una felicitación de cumpleaños y, en cambio, escriba una propuesta comercial con errores gramaticales, o le pidas un retrato familiar y te encuentres con un espectáculo horrible, sonríe. Parece que la computadora solo intenta comprender a los humanos. Mientras tanto, te recomendamos...