El dom, 15 ene 2023 a las 10:00, Patagonic Penguin (pingpata@gmail.com) escribió:
El lun, 9 ene 2023 a las 9:54, Juan Erbes (jerbes@gmail.com) escribió:
A fines de diciembre pasado se habló bastante de este nuevo buscador basado en Inteligencia Artificial: https://allabouttesting.org/chatgpt-vs-google-which-is-really-better/
https://the-decoder.com/chatgpt-vs-google-who-wins-at-500-searches/
Ahora es el turno de ChatGPT. Antes de que finalice el primer trimestre del año, esta IA estará integrada en la búsqueda de Bing. ChatGPT servirá para completar las ecuaciones de búsqueda del propio usuario con palabras clave relacionadas, así como para servir de apoyo a los propios resultados de búsqueda que ofrezca Bing.
Las limitaciones. Integrar ChatGPT en un buscador es un movimiento potente, pero sin tanto recorrido como pudiera parecer. Es importante recalcar que ChatGPT no rastrea información en tiempo real cómo si hacen los algoritmos de indexación en un navegador. ChatGPT responde en base al conjunto de datos (en constante actualización) del que dispone, no es un rastreador ni un motor de búsqueda en sí.
Debe enfrentarse, del mismo modo, al reto de la velocidad de respuesta, y a refinar los propios resultados que ofrece ya que, actualmente, es más que habitual que nos proporcione información imprecisa, incorrecta y no muy coherente.
Alerta roja en Google. Pese a las limitaciones de ChatGPT, Sundar Pichai ha declarado “código rojo” en su compañía. En Google temen que el potencial de esta IA suponga un cambio de paradigma, pudiendo poner en jaque el liderazgo que llevan monopolizando desde hace más de 20 años. Ejecutivos de Google han llegado a describir como “decisivos para su futuro” los esfuerzos que realicen ahora para reaccionar a ChatGPT.
Curiosamente, esta inteligencia artificial tiene un funcionamiento muy similar a LaMDA (Language Model for Dialogue Applications), un modelo de lenguaje con unas capacidades similares a las de OpenAI. No obstante, desde Alphabet aseguran que aún no implementarán LaMDA en su buscador, debido a los “riesgos de reputación” que puede suponer lanzar un modelo aún inmaduro. Pese a esta postura, dejan claro que tienen capacidad de respuesta ante ChatGPT.
Sin tanta alerta en cifras. Pese a la alarma en Google y la ambición por parte de Microsoft, estos últimos no lo tendrán fácil para destronar a Google como motor de búsqueda. Google domina con mano de hierro, mientras el uso de Bing es completamente marginal.
https://wolksoftcr.com/microsoft-quiere-que-alguien-utilice-bing-en-2023-y-s...
Las principales universidades de Australia han cambiado su forma de realizar los exámenes y otras evaluaciones ante la preocupación de que los estudiantes utilicen programas informáticos de inteligencia artificial (IA) para redactar sus textos, según informa The Guardian.
Las instituciones educativas han agregado nuevas normas que establecen que el uso de IA es hacer trampa, y algunos de sus alumnos ya han sido sorprendidos utilizando el 'software' ChatGPT, un nuevo 'chatbot' capaz de generar texto sobre cualquier tema en respuesta a una pregunta.
"Nuestras universidades han revisado la forma en que llevarán a cabo las evaluaciones en el 2023, incluyendo exámenes supervisados, un mayor uso de exámenes y pruebas de papel y lápiz, y pruebas solo para unidades con bajo riesgo de integridad", indicó Matthew Brown, subdirector ejecutivo del Grupo de las Ocho, una coalición conformada por las ocho principales universidades del país.
Asimismo, Brown indica que las universidades llevan tiempo abordando el uso de la IA mediante la formación de educadores, así como con la implementación de estrategias de detección específicas para los textos generados por los 'chatbots'. "El rediseño de la evaluación es fundamental, y este trabajo es continuo para nuestras universidades, ya que tratamos de adelantarnos a los avances de la IA", destacó.
El ChatGPT fue lanzado en noviembre por OpenAI y fue prohibido este mes en todos los dispositivos de las escuelas públicas de Nueva York, debido a la preocupación por sus "repercusiones negativas en el aprendizaje de los alumnos" y el potencial de plagio, según se indica en un comunicado del Departamento de Educación de Nueva York.
"Aunque la herramienta puede proporcionar respuestas rápidas y sencillas a las preguntas, no fomenta el pensamiento crítico ni la capacidad de resolver problemas, que son esenciales para el éxito académico y vital", declaró Jenna Lyle, portavoz del Departamento.
Las universidades "nunca podrán ganar"
Por otra parte, los expertos en IA ha advertido a las instituciones académicas de que se encuentran en una "carrera armamentística" que nunca podrán ganar.
"Hay soluciones técnicas: la marca de agua digital, pero basta con pasar otro programa por encima para destruir la marca de agua. Es una carrera armamentística que nunca va a terminar, y nunca vas a ganar", indicó Toby Walsh, profesor en la Universidad de Nueva Gales del Sur.
https://www.theguardian.com/australia-news/2023/jan/10/universities-to-retur...
ChatGPT aparece como autor en artículos de investigación: muchos científicos lo desaprueban
Al menos cuatro artículos citan a la herramienta de IA como coautora, mientras las editoriales se apresuran a regular su uso. El chatbot de inteligencia artificial (IA) ChatGPT, que ha arrasado en todo el mundo, se ha estrenado formalmente en la literatura científica con al menos cuatro créditos de autoría en artículos y preprints publicados.
Editores de revistas, investigadores y editores debaten ahora el lugar que ocupan estas herramientas de IA en la literatura publicada y si es apropiado citar al bot como autor. Las editoriales se apresuran a crear políticas para el chatbot, que la empresa tecnológica OpenAI de San Francisco (California) lanzó en noviembre como herramienta de uso gratuito. ChatGPT es un gran modelo lingüístico (LLM) que genera frases convincentes imitando los patrones estadísticos del lenguaje en una enorme base de datos de textos recopilados de Internet. El bot ya está trastornando sectores como el académico: en concreto, está planteando dudas sobre el futuro de los ensayos universitarios y la producción de investigaciones.
Las editoriales y los servidores de preimpresos con los que se ha puesto en contacto el equipo de noticias de Nature coinciden en que las IA como ChatGPT no cumplen los criterios para ser autor de un estudio, porque no pueden responsabilizarse del contenido y la integridad de los artículos científicos. Pero algunos editores afirman que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. (El equipo de noticias de Nature es editorialmente independiente del equipo de su revista y de su editor, Springer Nature).
En un caso, un editor dijo a Nature que ChatGPT había sido citado como coautor por error, y que la revista lo corregiría. Autor artificial
ChatGPT es uno de los 12 autores de un preprint1 sobre el uso de la herramienta para la enseñanza de la medicina, publicado en el repositorio médico medRxiv en diciembre del año pasado.
El equipo que está detrás del repositorio y su sitio hermano, bioRxiv, están debatiendo si es apropiado utilizar y acreditar herramientas de IA como ChatGPT cuando se escriben estudios, dice el cofundador Richard Sever, director adjunto de Cold Spring Harbor Laboratory press en Nueva York. Las convenciones podrían cambiar, añade.
"Tenemos que distinguir el papel formal del autor de un manuscrito académico de la noción más general de autor como redactor de un documento", dice Sever. Los autores asumen la responsabilidad legal de su trabajo, por lo que sólo deben figurar personas, afirma. "Por supuesto, la gente puede intentar colarlo -esto ya ha ocurrido en medRxiv-, del mismo modo que en el pasado la gente ha incluido mascotas, personas ficticias, etc. como autores en artículos de revistas, pero eso es una cuestión de comprobación más que de política". (Victor Tseng, autor correspondiente del preprint y director médico de Ansible Health en Mountain View, California, no respondió a una solicitud de comentarios).
En un editorial2 publicado este mes en la revista Nurse Education in Practice se cita a la IA como coautora, junto con Siobhan O'Connor, investigadora en tecnología sanitaria de la Universidad de Manchester (Reino Unido). Roger Watson, redactor jefe de la revista, afirma que este crédito se coló por error y que pronto se corregirá. "Fue un descuido por mi parte", dice, porque los editoriales se gestionan de forma distinta a los artículos de investigación.
Por su parte, Alex Zhavoronkov, director ejecutivo de Insilico Medicine, una empresa de Hong Kong dedicada al descubrimiento de fármacos mediante inteligencia artificial, atribuyó a ChatGPT la coautoría de un artículo3 publicado el mes pasado en la revista Oncoscience. Afirma que su empresa ha publicado más de 80 artículos elaborados con herramientas de IA generativa. "No somos nuevos en este campo", afirma. El último artículo analiza los pros y los contras de tomar rapamicina, en el contexto de un argumento filosófico llamado la apuesta de Pascal. ChatGPT escribió un artículo mucho mejor que las generaciones anteriores de herramientas de IA generativa, dice Zhavoronkov.
Dice que Oncoscience revisó este artículo después de que él se lo pidiera a su editor. La revista no respondió a la solicitud de comentarios de Nature.
Un cuarto artículo4, coescrito por un chatbot anterior llamado GPT-3 y publicado en el servidor francés de preimpresión HAL en junio de 2022, se publicará pronto en una revista revisada por pares, afirma la coautora Almira Osmanovic Thunström, neurobióloga del Hospital Universitario Sahlgrenska de Gotemburgo (Suecia). Dice que una revista rechazó el artículo después de revisarlo, pero una segunda lo aceptó con GPT-3 como autora después de que ella reescribiera el artículo en respuesta a las peticiones de los revisores. Política editorial
Los redactores jefe de Nature y Science dijeron al equipo de noticias de Nature que ChatGPT no cumple la norma de autoría. "Una atribución de autoría conlleva la responsabilidad del trabajo, que no puede aplicarse de forma efectiva a los LLM", afirma Magdalena Skipper, redactora jefe de Nature en Londres. Los autores que utilicen LLM de algún modo durante la elaboración de un artículo deben documentar su uso en las secciones de métodos o agradecimientos, si procede, afirma.
"No permitiríamos que la IA figurara como autor en un artículo que publicáramos, y el uso de texto generado por IA sin citarlo adecuadamente podría considerarse plagio", afirma Holden Thorp, redactor jefe de la familia de revistas Science en Washington DC.
La editorial Taylor & Francis de Londres está revisando su política, dice la directora de ética e integridad editorial, Sabina Alam. Está de acuerdo en que los autores son responsables de la validez e integridad de su trabajo, y deben citar cualquier uso de LLM en la sección de agradecimientos. Taylor & Francis aún no ha recibido ninguna propuesta que acredite a ChatGPT como coautor.
El consejo del servidor de preimpresiones de ciencias físicas arXiv ha mantenido debates internos y está empezando a converger en un enfoque sobre el uso de IA generativas, afirma el director científico Steinn Sigurdsson, astrónomo de la Universidad Estatal de Pensilvania en University Park. Está de acuerdo en que una herramienta de software no puede ser autora de un envío, en parte porque no puede aceptar las condiciones de uso y el derecho a distribuir contenidos. Sigurdsson no conoce ningún preprints de arXiv en el que ChatGPT figure como coautor, y dice que pronto se darán orientaciones a los autores.
La ética de la IA generativa
Según Matt Hodgkinson, gestor de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido en Londres, que habla a título personal, ya existen directrices claras sobre la autoría, según las cuales ChatGPT no debería figurar como coautor. Una de las directrices es que un coautor debe hacer una "contribución académica significativa" al artículo, lo que puede ser posible con herramientas como ChatGPT, afirma. Pero también debe tener la capacidad de aceptar ser coautor y asumir la responsabilidad de un estudio o, al menos, de la parte a la que ha contribuido. "Es realmente en esta segunda parte en la que la idea de conceder la coautoría a una herramienta de IA se topa con un obstáculo", afirma.
Zhavoronkov dice que cuando intentó que ChatGPT escribiera artículos más técnicos que la perspectiva que publicó, fracasó. "Muy a menudo devuelve afirmaciones que no son necesariamente ciertas, y si le haces varias veces la misma pregunta, te dará respuestas diferentes", dice. "Así que definitivamente me preocupará el mal uso del sistema en el mundo académico, porque ahora, personas sin experiencia en el dominio podrían intentar escribir artículos científicos".
https://www.nature.com/articles/d41586-023-00107-z
doi: https://doi.org/10.1038/d41586-023-00107-z