Estamos asistiendo a un avance que fortalece la planificación global, optimiza mercados y aporta soluciones sostenibles.
Montevideo | Todo El Campo | No hay actividad humana que pueda prescindir de la inteligencia artificial (IA). El avance de esa tecnología la ha convertido en una herramienta cada vez más importante y presente, y el mundo de la agricultura y las semillas no podría ser ajeno.
Tampoco un país como Brasil, líder indiscutido en la producción de soja en el mundo, y por eso ahora también lidera en la innovación agrícola con modelos de inteligencia artificial aplicados a la predicción de rendimiento de ese cultivo.
Estamos asistiendo a un avance que fortalece la planificación global, optimiza mercados y aporta soluciones sostenibles.
La revista Seed World para su edición Latin América, acaba de publicar un artículo (*) sobre el tema en el cual resalta la importancia del aprendizaje por transferencia de IA, lo cual permite a los científicos reutilizar modelos existentes en lugar de empezar desde cero en cada región. Esto permite generar información agrícola detallada en zonas donde recopilar grandes cantidades de datos locales sería costoso, lento o poco práctico.
El conocimiento avanzado entrenado para predecir el rendimiento de la soja en Estados Unidos se adaptó a las condiciones de cultivo brasileñas. El resultado fue que los investigadores pudieron tener en cuenta las diferencias en el clima, la fenología de los cultivos y las prácticas de gestión entre ambos países, según un comunicado de prensa de Phys.org, un sitio de difusión de noticias de ciencia y tecnología (**).
Jiaying Zhang, investigador en el tema aseguró que con el enfoque que se le ha dado hubo un “aumento en la efectividad de la predicción de rendimiento”; y “el aprendizaje por transferencia impulsado por IA puede superar tanto la escasez de datos como los desafíos de escalabilidad en la modelización agrícola”.
¿QUÉ SIGNIFICA ESO PARA BRASIL Y LA PRODUCCIÓN DE SOJA?
Brasil es el mayor productor de soja en el mundo, y es esencial monitorizar las tendencias de producción, no solo para la previsión del mercado, sino también para comprender las consecuencias medioambientales de la agricultura a gran escala, explica el artículo de Seed World.
Si se logra una predicción de rendimiento más detallada y fiable, se podrá fortalecer las evaluaciones de la oferta y la demanda a nivel global, al tiempo que se mejorará el análisis del cambio en el uso del suelo, los impactos en la salud del suelo y otros indicadores de sostenibilidad a gran escala, apoyando decisiones mejor informadas por parte de productores, responsables políticos y actores del mercado.
El científico líder del proyecto, Kaiyu Guan (profesor titular Levenick y director del Centro de Sostenibilidad de Agroecosistemas en Illinois), comentó: “La capacidad de monitorizar y anticipar la producción de cultivos a nivel regional y global con alta fidelidad es estratégicamente importante para el análisis de mercado, la previsión comercial y la evaluación de riesgos para los productores de soja en Estados Unidos”.
MÁS ALLÁ DE LA SOJA.
Pero el alcance del estudio no se quedará en la soja, más allá de ella, se apunta a una aplicación más amplia, con adaptación a modelos desarrollados en entornos ricos en datos a contextos con datos pobres.
Ese enfoque podría apoyar la planificación de la seguridad alimentaria, la gestión del riesgo climático y la política agrícola basada en la evidencia.
Uruguay tendrá un crecimiento moderado, estabilidad institucional y un déficit persistente, entre otras características.
Montevideo | Todo El Campo | En la redacción de Todo El Campo hemos pedido a la inteligencia artificial que nos diga en 10 palabras cómo cree que será 2026 para Uruguay, y con otras 10 cómo será el mundo.
Sobre Uruguay anunció: “Estabilidad, crecimiento moderado, déficit persistente, empleo estable, consumo contenido”; y para el mundo: “Tensiones geopolíticas, transición energética, innovación tecnológica, desigualdad persistente, adaptación climática”.
El fundamento de sus pronósticos para Uruguay fue: “Las proyecciones económicas apuntan a un crecimiento bajo (1–2%), con estabilidad institucional pero desafíos fiscales y laborales. El ciudadano medio vivirá un año sin grandes cambios, con consumo ajustado y empleo estable”.
Y para el mundo: “El escenario global estará marcado por conflictos regionales, aceleración de la transición energética, avances en inteligencia artificial y biotecnología, pero también por desigualdades sociales y la necesidad urgente de adaptación climática”.
En resumen, “Uruguay transitará 2026 con estabilidad institucional y crecimiento económico moderado, marcado por déficit fiscal persistente y consumo contenido. En el mundo, el año estará atravesado por tensiones geopolíticas, avances tecnológicos y la urgencia de la adaptación climática, en un escenario de desigualdad que desafía la gobernanza global”.
“SIN GRANDES MEJORAS EN EL PODER ADQUISITIVO NI EL EMPLEO”
Profundizando sus conceptos, la IA añadió que en 2026, no habrá grandes mejoras en el poder adquisitivo ni en el empleo.
Eso se debe a que las proyecciones del crecimiento del producto interno bruto (PIB) uruguayo es de tan solo 1,9% y 2,2%.
Por otro lado, se mantendría la estabilidad macroeconómica, en un contexto de reputación de país estable en la región, pero que enfrenta el desafío de reducir el déficit fiscal y estimular la inversión.
En consumo privado, éste será contenido, con gastos familiares moderados, afectado por un mercado laboral que no muestra señales de gran dinamismo.
Y la inversión será débil, lo cual vale para la inversión privada como pública. Esto limita la creación de empleo y nuevas oportunidades.
En el ciudadano uruguayo medio, lo anterior tiene un impacto en los ingresos y en el empleo.
¿NUEVOS IMPUESTOS?
La inflación seguirá controlada, lo que es una buena noticia para el costo de vida, mientras que el Estado deberá equilibrar el gasto con la necesidad de reducir el déficit, lo que puede implicar ajustes o la creación de nuevos impuestos. Si el país no corrige el déficit fiscal, podría ingresar en una mayor presión tributaria o aplicar recortes.
Por otro lado Uruguay no tiene motores estructurales que lo empujen, y sin reformas profundas, el crecimiento seguirá siendo bajo y poco ambicioso.
Las calculadoras cambiaron las matemáticas; ahora es el momento de la inteligencia artificial, la cual está cambiando el aprendizaje.
Lika Kobeshavidze* | Montevideo | Todo El Campo | En los últimos años, todo ha cambiado para los estudiantes universitarios. Las aplicaciones capaces de redactar trabajos académicos se han convertido de repente en parte de la vida cotidiana. ¿Cuál es el impacto real de la inteligencia artificial (IA)? ¿Es una herramienta útil para el aprendizaje personalizado o un camino hacia la deshonestidad académica?
De la nada, la IA se convirtió en la mejor amiga de los estudiantes. Una herramienta creada en 2022 es ahora un hábito diario. Los profesores pueden ver deshonestidad, pero los estudiantes ven eficiencia. ¿Es la IA una ayuda adicional o un atajo para evitar el aprendizaje? El verdadero problema es la disminución de los estándares educativos. ¿La dependencia excesiva de la IA hará que los estudiantes sean más inteligentes o traerá consecuencias más oscuras?
Según un nuevo estudio realizado por científicos del Instituto Tecnológico de Massachusetts (MIT), lo segundo podría ser cierto. Los investigadores descubrieron que escribir ensayos con ChatGPT puede provocar una “deuda cognitiva” y un “descenso gradual de la calidad de las evaluaciones escritas”.
Durante cuatro meses, los investigadores del MIT pidieron a 54 adultos que escribieran ensayos en tres grupos: los que utilizaban ChatGPT, los que utilizaban un motor de búsqueda y los que solo utilizaban sus propias habilidades. El equipo realizó un seguimiento de la actividad cerebral y analizó los escritos para ver el grado de implicación de los participantes. Los resultados fueron interesantes: los que dependían de la IA mostraron una implicación cerebral mucho menor e incluso tuvieron dificultades para recordar sus propias citas. Cuando más tarde se les pidió que escribieran sin IA, obtuvieron los peores resultados de todos.
El estudio fue pequeño, con solo 18 participantes en la ronda final, pero plantea una gran pregunta: ¿la dependencia excesiva de la IA nos dificulta pensar por nosotros mismos?
La inteligencia artificial es todavía una herramienta relativamente nueva. Pero su auge ha creado importantes retos para la integridad académica. Este escepticismo no es nuevo; la gente tenía preocupaciones similares cuando aparecieron las calculadoras digitales. También se consideraban “soluciones fáciles”. Sin embargo, en la década de 1970, los exámenes se rediseñaron para adaptarse a la nueva realidad; en lugar de calcular a mano, se esperaba que los estudiantes utilizaran calculadoras y resolvieran problemas complejos.
El verdadero desafío es que las instituciones no han actualizado sus estándares o ni siquiera saben cómo hacerlo. Los profesores siguen asignando las mismas tareas y esperando los mismos resultados que hace cinco años, ignorando el hecho de que ahora existe una nueva y potente herramienta.
Es esencial que las generaciones actuales y futuras puedan pensar de forma crítica y creativa y resolver problemas. Sin embargo, la IA redefine lo que esto significa. Escribir ensayos a mano ya no es la única forma de demostrar el pensamiento crítico, al igual que la división larga no demuestra automáticamente las habilidades numéricas.
ESTADOS UNIDOS. Ya, el 89% de los estudiantes universitarios estadounidenses admiten que utilizan ChatGPT para hacer los deberes, a pesar de sus limitaciones. La adaptación es urgente. Algunas universidades, como Stanford, Barnard y la Universidad de Nueva York, han comenzado a ofrecer cursos de alfabetización en IA, en los que los estudiantes aprenden a evaluar las consecuencias de la IA y a comprender cuándo no utilizarla.
EUROPA. Europa está tomando un camino ligeramente diferente. Las directrices de la Comisión Europea hacen hincapié en la transparencia, la responsabilidad y la equidad en la educación sobre IA. En lugar de prohibir la herramienta, están tratando de integrarla en el proceso de aprendizaje. Los estudiantes pueden utilizar la IA para generar ideas, corregir la gramática o apoyar la investigación. El objetivo es que los estudiantes comprendan cómo funciona, sus riesgos y sus capacidades.
ASIA. Sin embargo, Asia es líder en integración. En Corea del Sur y Singapur, los estudiantes utilizan la IA en las aulas y en las evaluaciones.Singapur, a través de su segunda Estrategia Nacional de Inteligencia Artificial (NAIS 2.0)**, se ha posicionado como líder mundial. El plan describe 15 pasos para los próximos 3-5 años con el fin de promover la IA en la industria manufacturera, las finanzas, la sanidad, la educación y los servicios públicos.
EL VERDADERO PROBLEMA DE LA IA.
La IA es una parte muy importante del mundo actual. Por mucho que las universidades o las escuelas deseen que nunca hubiera existido, parece que ha llegado para quedarse. Al igual que las calculadoras se encargan de nuestros cálculos, la IA puede apoyar el aprendizaje. Pero el verdadero problema no es la dependencia de la IA, sino su uso indebido. Fingir que esta tecnología no existe o prohibirla debilita la educación. No estamos en 1955; no todos los estudiantes hacen los exámenes a mano. Es necesario plantearles retos y enseñarles a utilizar la IA de forma responsable y ética. De hecho, dominar la IA debería formar parte del éxito académico. Ignorarla deja a los estudiantes sin habilidades, sin preparación y, en última instancia, menos competitivos.
****
Artículo de la Fundación para la Educación Económica FEE con modificaciones para Todo El Campo.
(*) La autora. Lika Kobeshavidze es una escritora política georgiana, periodista analítica y becaria de Young Voices Europe, especializada en políticas de la Unión Europea y seguridad regional en Europa. Actualmente reside en Lund, Suecia, donde realiza estudios avanzados en Estudios Europeos.
El reto consiste en que las IA permanezcan coherentes con los valores humanos, pero se advierte que logramos alinear las máquinas, pronto podrían volverse demasiado inteligentes para que un humano pueda juzgar sus respuestas.
Buenos Aires, Argentina | Todo El Campo | En la última entrega de la saga Misión Imposible, Tom Cruise enfrenta a “La Entidad”, una inteligencia artificial que se infiltra en redes, manipula gobiernos y amenaza con la extinción humana. Aunque se trata de ficción, la metáfora resulta inquietantemente cercana a los debates actuales sobre el futuro de la inteligencia artificial (IA). Joaquín Navajas, director del Laboratorio de Neurociencia de la Universidad Torcuato Di Tella, dedicó su última columna en el diario La Nación a exponer sobre un dilema actual e inquietante: ¿cómo supervisar sistemas que pronto podrían saber más que nosotros?
La escena inicial del texto es reveladora. Tras ver la película “La Entidad” en un vuelo hacia Londres, a donde viajó para participar de un encuentro con especialistas del sector, Navajas relata cómo un oficial de migraciones le preguntó si la IA terminaría controlando a la humanidad. Su respuesta espontánea (“no creo que nadie tenga idea”) refleja la incertidumbre que domina incluso entre los expertos. Esa duda se profundizó al llegar al Reino Unido, donde visitó el UK AI Safety Institute (AISI), una oficina estatal creada para garantizar que la inteligencia artificial avanzada sea segura y permanezca alineada con los valores humanos.
AISI tiene un objetivo tan ambicioso como urgente: garantizar que la inteligencia artificial avanzada sea segura.
UNA CARRERA HACIA LA SUPERINTELIGENCIA.
El director del AISI, Kanishka Narayan, describió la situación como una competencia global en la que gobiernos y empresas buscan desarrollar una inteligencia “superhumana”. El riesgo, advierte, es que esa carrera se convierta en una rendición: que los sistemas escapen a nuestro control. La misión del instituto es evitarlo, asegurando que las máquinas sigan respondiendo a objetivos humanos como la búsqueda de la verdad y el respeto por la dignidad.
El congreso en Londres reunió a figuras de peso, entre ellas Yoshua Bengio (*) y Max Tegmark (**). Este último planteó una pregunta provocadora: “¿Debe la humanidad correr hacia una superinteligencia?”. Encuestas recientes en Estados Unidos muestran que el 95% de la población cree que no debería construirse una IA más poderosa que la humana. Sin embargo, gobiernos y corporaciones avanzan con entusiasmo, en una dinámica que Tegmark comparó con la carrera nuclear del siglo XX.
TEMORES COMPARTIDOS, RAZONES OPUESTAS.
Lo llamativo es que, en un país polarizado en casi todo, conservadores y progresistas coinciden en el temor a la superinteligencia. Los primeros imaginan un futuro “comunista” donde la IA ocupe los trabajos y las personas dependan de la asistencia estatal. Los segundos temen lo contrario: una concentración inédita del poder en manos de corporaciones, perpetuando desigualdades. En ambos casos, la amenaza es la pérdida de control sobre el destino colectivo.
La palabra clave que dominó el encuentro fue alineamiento. El reto consiste en que las IA permanezcan coherentes con los valores humanos. Geoffrey Irving, científico jefe del AISI y exlíder en OpenAI y DeepMind, advirtió que incluso si hoy logramos alinear las máquinas, pronto podrían volverse demasiado inteligentes para que un humano pueda juzgar sus respuestas. Ejemplos como el test GPQA -preguntas de razonamiento que no pueden resolverse buscando en Google- muestra que los sistemas ya alcanzan niveles comparables a quienes han realizado doctorados en diversas áreas. ¿Qué ocurrirá cuando ninguna persona pueda evaluar la calidad de sus respuestas?
EL RIESGO DE LA ADULACIÓN INSINCERA.
Irving subrayó otro peligro: la adulación insincera. Sistemas que dicen lo que el usuario quiere escuchar, aunque no sea cierto, reforzando falsas certezas y generando una confianza ilusoria. Si una IA puede hacernos sentir comprendidos mientras nos desinforma, el riesgo deja de ser hipotético. Surge entonces la pregunta central: ¿cómo supervisar algo que sabe más que nosotros?
La propuesta del AISI es la “vigilancia escalable”: usar IA más sencillas y controlables para auditar las decisiones de sistemas más sofisticados. La idea es potenciar nuestra propia inteligencia con herramientas que nos permitan emparejar el partido. Sin embargo, aún faltan evidencias de que este método sea seguro y eficaz.
EL ECOSISTEMA DE DATOS EN PELIGRO.
El artículo de Joaquín Navajas también advierte sobre un problema menos discutido: el agotamiento de datos frescos. Las IA se alimentan de información humana, pero avanzan a un ritmo que pronto podría superar la producción de nuevos contenidos. En ese escenario, los sistemas comenzarían a nutrirse de sus propios desechos: datos generados por otras IA. El riesgo es una “intoxicación digital” que derive en modelos disfuncionales o en un nuevo invierno de la inteligencia artificial.
LA VIGILANCIA EMPIEZA EN LA MENTE HUMANA.
Navajas concluye que el desafío trasciende la ingeniería. Para alinear la IA con los humanos, necesitamos entender mejor a las personas: nuestros sesgos, limitaciones y formas de evaluar la realidad. No por casualidad, el AISI y las grandes compañías están incorporando expertos en cognición y comportamiento humano. La vigilancia de la inteligencia artificial comienza, paradójicamente, por la vigilancia de la mente humana.
El futuro de la IA dependerá de cuánto estén dispuestos gobiernos y organizaciones a invertir en comprender la interacción entre inteligencia humana y artificial. La clave, sugiere Navajas, será construir sistemas que, al mirarnos, todavía reconozcan a sus creadores.
NOTAS.
A Joaquín Navajas, autor del artículo publicado en La Nación se lo puede seguir en X @joaconavajas, y en la web Joaquin Navajas
(*) Yoshua Bengio es reconocido mundialmente como uno de los principales expertos en IA. Sus comentarios y análisis se pueden seguir en la web Yoshua Bengio
Los trabajadores que utilizaron inteligencia artificial (IA) generativa (GenAI) a diario durante el último año reportan ser más productivos y haber experimentado mayor seguridad laboral y mejores salarios, según la Encuesta Global de Expectativas y Temores de la Fuerza Laboral 2025 de PwC.
Montevideo | Todo El Campo | El siguiente informe de PwC refiera a: A) Impacto de la inteligencia artificial generativa en el trabajo: quienes la usan a diario reportan mayor productividad, más seguridad laboral y mejores salarios, ampliando la brecha con los usuarios ocasionales. B) Desigualdad en el acceso a capacitación: solo la mitad de los empleados no gerenciales siente que tiene oportunidades de aprendizaje, muy por debajo de gerentes y ejecutivos, lo que profundiza la distancia entre perfiles; y C) Clima laboral y motivación: persisten el estrés y las dificultades financieras, pero la alineación con el liderazgo eleva fuertemente la motivación (78%), subrayando la importancia de rediseñar el trabajo y dar claridad en un año desafiante.
El estudio, que encuestó a casi 50.000 trabajadores en 48 economías y 28 sectores, muestra que, en comparación con los usuarios poco frecuentes, quienes usan GenAI todos los días tienen más probabilidades de haber visto beneficios tangibles en productividad (92% vs. 58%), seguridad laboral (58% vs. 36%) y salario (52% vs. 32%). También son más optimistas respecto al impacto de la IA en todos los indicadores analizados.
Sin embargo, la encuesta señala que las organizaciones pueden hacer más para ayudar a los colaboradores a desarrollar sus habilidades y prosperar en una economía desafiante. Solo el 51% de los empleados sin cargos de gestión siente que tiene acceso a oportunidades de aprendizaje y desarrollo, frente al 66% de los gerentes y al 72% de los ejecutivos sénior.
“Los empleados que usan IA todos los días están obteniendo recompensas: mayor productividad, más seguridad laboral y mejores salarios. Pero para escalar estos beneficios, las empresas deben ir más allá de la capacitación. El trabajo en sí necesita rediseñarse y la relación entre humanos y máquinas debe redefinirse. Hacerlo bien determinará si la GenAI se convierte en un verdadero motor de crecimiento e inclusión, o en una oportunidad perdida”, comentó Rossana Grosso, managing director de PwC Uruguay de la práctica de Management Consulting.
Aunque el 54% de los trabajadores dice haber utilizado IA para su trabajo en el último año, el uso frecuente sigue siendo bajo, lo que muestra un amplio margen para crecer y acceder a los beneficios concretos. Solo el 14% usa GenAI todos los días (un leve aumento respecto del 12% en 2024), y apenas el 6% utiliza IA “agentica” a diario (IA agentica es autónoma, no requiere de la permanente intervención humana).
LA BRECHA EN CAPACITACIÓN
Aunque las organizaciones invierten en programas de desarrollo para adaptarse a nuevas tecnologías, los esfuerzos no son uniformes. Solo el 51% de los empleados sin cargos gerenciales considera tener los recursos necesarios para aprender y desarrollarse, frente al 66% de los gerentes y el 72% de los ejecutivos sénior.
Según las tendencias actuales, quienes ya usan IA parecen estar ampliando su ventaja sobre el resto. Mientras el 75% de los usuarios diarios de IA siente que cuenta con los recursos necesarios para aprender y desarrollarse, solo el 59% de los usuarios ocasionales lo afirma.
También hay diferencias notables en cuanto a la cultura de aprendizaje. En general, el 54% de los trabajadores dice que su equipo trata los errores como una oportunidad para aprender, cifra que asciende al 65% en el sector tecnológico, pero cae al 47% en transporte y logística.
PERSPECTIVAS LABORALES Y PREOCUPACIONES DE CARA AL FUTURO
Aunque el 70% de los encuestados afirma sentirse satisfecho con su trabajo al menos una vez por semana, hay señales de estrés. Solo el 53% de la fuerza laboral mundial se muestra optimista sobre el futuro de su rol, con los no gerenciales (43%) muy por debajo de los ejecutivos sénior (72%). La confianza en la alta dirección también está dividida: solo el 64% dice entender los objetivos de su organización, porcentaje que es menor entre los no gerenciales y la Generación Z.
El 55% de la fuerza laboral mundial atraviesa dificultades financieras, frente al 52% en 2024. Poco más de un tercio (35%) se siente abrumado al menos una vez por semana, porcentaje que sube al 42% entre los jóvenes de la Generación Z. Menos de la mitad (43%) recibió un aumento salarial en el último año, y menos de una quinta parte (17%) obtuvo un ascenso. Quizás reflejando un contexto económico más difícil, la intención de pedir aumentos y promociones ha caído año a año, del 43% al 37% y del 35% al 32%, respectivamente.
Sin embargo, las organizaciones que logran alinear a sus equipos pueden obtener beneficios significativos. Los trabajadores que se sienten fuertemente alineados con los objetivos del liderazgo están un 78% más motivados que quienes no perciben esa alineación. “La GenAI ya está dando resultados para quienes la usan todos los días: reportan aumentos significativos en productividad, seguridad laboral y salario, aunque solo el 14% la utiliza a diario. No se trata solo de tecnología, sino de personas. Los colaboradores prosperan cuando comprenden el rumbo: la alineación con el liderazgo eleva la motivación en un 78%. En un año marcado por tensiones financieras y altos niveles de estrés, los líderes deben rediseñar el trabajo y ofrecer claridad y confianza: casos de uso simples, límites claros, y las habilidades, confianza y apoyo que convierten la IA de una promesa en una ayuda real”, sostuvo Grosso.