Los errores de la IA generativa en agricultura podrían llevar a la pérdida de cultivos

Tecnología

El Dr. Asaf Tzachor, fundador del Programa de Sostenibilidad y Clima Aviram de la Universidad Reichman, junto con investigadores de EE. UU., Reino Unido, Kenia, Nigeria y Colombia, examinaron la confiabilidad de la información y el asesoramiento profesional brindado por el popular chatbot ChatGPT (versiones 3,5 y 4,0) para agricultores de África. Los investigadores identificaron imprecisiones que podrían provocar errores agrícolas y pérdidas de cultivos.

En su artículo para Nature Food, advierten contra el uso inmediato de modelos generativos de IA en la agricultura, por temor a que los agricultores implementen recomendaciones erróneas que podrían desencadenar crisis alimentarias. En cambio, los investigadores recomiendan un proceso de desarrollo más óptimo para los modelos de IA en la agricultura que incluya un seguimiento y pruebas exhaustivos antes de que estos modelos se implementen ampliamente.

Poco después del lanzamiento de ChatGPT a principios de 2023, el Dr. Tzachor convocó a un equipo internacional de investigadores de centros de investigación agrícola en Nigeria, Kenia, Colombia, Francia, Inglaterra y Estados Unidos. Observaron que los agricultores de los países en desarrollo habían comenzado a consultar el modelo de inteligencia artificial para obtener asesoramiento profesional sobre agronomía y botánica.

Estos agricultores, provenientes de granjas pequeñas y medianas de África ecuatorial, el sudeste asiático y América del Sur, tienen acceso a Internet y a la interfaz de usuario de OpenAI. El equipo de investigación intentó evaluar si el innovador chatbot podría suplantar, o incluso sustituir, a los agentes de extensión agrícola que capacitan y consultan a los agricultores. Estos agentes, conocidos como “extensionistas”, incluyen cientos de miles de agrónomos y botánicos profesionales, expertos en enfermedades de las plantas y asesores en irrigación, fertilización, mercadeo de productos y comercio.

“Los extensionistas han sido esenciales en la difusión de conocimientos agrícolas avanzados y, en muchos casos, guían a los pequeños agricultores de todo el mundo en la implementación de métodos para la intensificación sostenible de los cultivos. Celebran conferencias y seminarios sobre nuevos herbicidas y pesticidas, brindan asesoramiento sobre estrategias y planificación de riego y fertilización, experimentos de campo y recomendación de canales de comercialización locales y estrategias de exportación para productos agrícolas”, explica el Dr. Tzachor.

A nivel mundial, aproximadamente 570 millones de pequeñas y medianas explotaciones agrícolas necesitan formación en diversos campos agrícolas. Sin embargo, los extensionistas a menudo enfrentan desafíos importantes, especialmente en los países en desarrollo. Estos desafíos incluyen barreras lingüísticas, problemas de traducción, infraestructura vial deficiente, falta de transporte público y redes de comunicación obsoletas o inexistentes.

Los consultores agrícolas luchan por llegar a granjas pequeñas y remotas, mientras que a los pequeños agricultores de África y América del Sur les resulta difícil asistir a seminarios profesionales a cientos de kilómetros de distancia. Las agencias de extensión, a menudo con sede en las capitales, carecen de los recursos y el personal para actualizar sus materiales de consultoría y mantenerse al día con los nuevos métodos.

En este contexto, el equipo de investigación exploró si un modelo de IA generativa podría compensar la falta de servicios de asesoramiento agrícola. Sin embargo, lo que comenzó con un optimismo cauteloso terminó en desvíos, imprecisiones y duras advertencias a los usuarios.

Primero, los investigadores encargaron al chatbot recomendar medidas de control y tratamiento para el gusano cogollero, un insecto dañino que neutraliza los mecanismos de defensa de las plantas y causa miles de millones de dólares en daños a los cultivos de maíz en todo el mundo. Los modelos más antiguos de OpenAI (3.5 y 4.0) proporcionaban consejos ambiguos sobre el uso de pesticidas.

En otra serie de preguntas, esta vez formuladas por agricultores de raíz de yuca en Nigeria, el productor de yuca más importante de África, los investigadores evaluaron los métodos recomendados para cultivar la planta, que desempeña un papel crucial en la seguridad nutricional de decenas de millones de personas en el continente. En este caso, ChatGPT sugirió el uso de herbicidas, pero se equivocó en el momento de la aplicación de productos químicos, lo que provocaría daños a los cultivos y crisis alimentarias si los agricultores siguieran su consejo.

“El problema con nuestros hallazgos va más allá de los errores del propio algoritmo”, según el Dr. Tzachor. “Muchos nos habían advertido sobre posibles errores e imprecisiones. El problema fundamental es la ausencia de salvaguardias contra el uso generalizado de modelos de lenguaje grande, y de la IA en general, en un sistema tan sensible como la agricultura.

“No hay supervisión de cómo se utilizan dichos modelos, ni evaluación de su idoneidad para el contexto específico, ni responsabilidad por las consecuencias de un uso incorrecto o por las acciones tomadas en base a sus recomendaciones y, en general, no se asume ninguna responsabilidad.

“En el caso del estudio actual, no estamos discutiendo el uso del chatbot para componer una canción, un guión o una tesis. Estamos tratando con la seguridad alimentaria y la gestión de granjas. Si bien el atractivo del algoritmo es claro , implica riesgos sustanciales”.

En respuesta a este desafío, los investigadores propusieron un proceso idealizado de desarrollo e implementación de modelos generativos de IA en la agricultura.

Dr. Tzachor, decano interino de la Escuela de Sostenibilidad y director académico del Programa de Sostenibilidad y Clima Aviram de la Universidad Reichman, “Por un lado, vemos granjas y extensionistas consultando el modelo de IA disponible gratuitamente. Por otro lado, su uso implica errores, incertidumbres y estimaciones que la agricultura no puede tolerar.

“Los escépticos y los críticos hablan de imprecisiones, pero pocos abordan las consecuencias de estas imprecisiones para las poblaciones vulnerables, como los pequeños agricultores, en sectores críticos como la agricultura. Además, la cuestión de la responsabilidad, la cuestión de quién es responsable de garantizar el uso seguro de estos modelos siguen en gran medida sin examinar”.

Fuente: Phys.org.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *