viernes, marzo 29, 2024

Microsoft advierte que ChatGPT-4 da muestras de razonamiento humano

  • Banreservas banner 960x

Investigadores de Microsoft que analizaron GPT-4, el modelo de inteligencia artificial (IA) de lenguaje natural que da soporte a ChatGPT de OpenAI, aseguran que refleja cierta conciencia y razonamiento humano en sus respuestas a diferentes tareas propuestas. Para arribar a esta conclusión estuvieron trabajando durante meses con esa tecnología, en pruebas con imágenes, textos y diversos temas de estudio.

En un informe publicado recientemente en el servicio de preimpresión arXiv, que aún no ha sido sometido a revisión por pares, los investigadores argumentaron que el sistema está a un paso de la inteligencia artificial general (AGI, por sus siglas en inglés). El término designa a un sistema o modelo tecnológico que sería capaz de mostrar comprensión o razonamiento similar al de los humanos.

Te recomendamos: Meta estaría desarrollando red social para competir con Twitter

Los autores del estudio le pidieron al GPT-4 que solucionara ciertos problemas o acertijos para forzar la capacidad de razonamiento del modelo de lenguaje natural. Por ejemplo, que explicara cómo se podrían apilar de manera estable varios objetos como «un libro, nueve huevos, un ordenador portátil, una botella y un clavo». La respuesta rápida y correcta sorprendió a los expertos.

La IA les sugirió que colocaran «el ordenador portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. El ordenador encajaría perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionaría una plataforma estable para la siguiente capa». Otra de las pruebas que le solicitaron a la IA fue un ejercicio matemático en el que mostrara, mediante una rima, que hay infinitos números primos. La respuesta fue igualmente ingeniosa y los dejó perplejos.

El razonamiento humano

«¿Cosas que pensé que no sería capaz de hacer? Ciertamente, fue capaz de hacer muchas de ellas, si no la mayoría», comentó a The New York Times Sébastien Bubeck, exprofesor de la Universidad de Princeton, EE.UU., quien dirigió el estudio.

Cada Rincon Banner turismo

Expertos en desacuerdo

Sin embargo, Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon, EE.UU., considera el informé científico de Microsoft como una maniobra de relaciones públicas. «Literalmente, reconocen en la introducción de su artículo que su enfoque es subjetivo e informal. Y que puede no satisfacer los rigurosos estándares de la evaluación científica», subrayó.

Otros expertos en inteligencia artificial que rechazan la idea de estar ante una AGI, consideran que sistemas como GPT-4 son sin duda poderosos, pero no está claro que el texto generado sea el resultado de algo así como el razonamiento humano o el sentido común.

Afirman también que, al estar ante un sistema o máquina compleja cuyo funcionamiento es difícil de comprender, tanto expertos como usuarios sin conocimientos sobre el tema tienden a crear una idea errónea de la tecnología.

«Cuando vemos un sistema o máquina complicado, lo antropomorfizamos», señaló Alison Gopnik, profesora de psicología de la Universidad de California en Berkeley, EE.UU.

Fuente: Actualidad RT

En el foco

  • En cada rincon turismo 300x250

Top 5 esta semana

Explora más