https://staticprd.minuto30.com/wp-content/uploads/2024/02/1e4103d0c3a3ea6f813e7ebc444616d9222283f1m.jpg
Barcelona, 26 de febrero (EFE) .- El cofundador y CEO de Google Deepmind, Demis Hassabis, considerado uno de los padres de la inteligencia artificial (IA), dijo el lunes en Barcelona que los modelos de idiomas actuales son solo el avance de los sistemas que en poco tiempo podrán "plan" y "acto" En el mundo real.
"Solo estamos tocando la superficie de lo que vendrá en los próximos años."dijo el académico y empresario durante una de sus intervenciones públicas inusuales en el Mobile World Congress (MWC), el congreso tecnológico más grande del mundo.
Hassabis ha avanzado que en solo dos años comenzaremos a ver ensayos clínicos de medicamentos diseñados por IA, lo que será especialmente efectivo gracias a su capacidad para crear compuestos químicos que pueden estar vinculados a una proteína particular, sin impacto en otras moléculas, que pueden minimizar los efectos secundarios.
También anticipó un salto adelante en el descubrimiento de materiales -"Sueño con algún día descubrir un superconductor a temperatura ambiente"Puntos, así como en la predicción del tiempo, los sistemas inteligentes actuales ya calculan en los segundos pronósticos que costarían horas en una supercomputadora convencional.
En el campo de las matemáticas, él cree que AI resolverá algunas de las grandes conjeturas aún abiertas, lo que conducirá a descubrimientos insospechados en muchas áreas.
En una década, especula, los sistemas inteligentes pueden dejar de necesitar científicos humanos para plantear hipótesis y problemas para resolver, y serán las propias máquinas las que formulan sus propias conjeturas.
Hassabis admitió que los humanos dejarán de comprender cómo los modelos artificiales han obtenido sus soluciones, pero cree que gracias a su capacidad de lenguaje se les puede preguntar cómo lo han hecho. "Como lo harías con una persona"describir.
Un campo de avances graduales
El científico británico, que comenzó su carrera en la industria de los videojuegos y luego regresó a la universidad para doctorar en neurociencia, cree que el avance hacia la inteligencia artificial general, el término utilizado en el sector para referirse a una máquina capaz de pensar como humano, será un proceso gradual y no ocurrirá en un salto cualitativo inesperado.
Hassabis abrió la puerta a la corriente "auge" de la IA a partir de 2016. Primero con Alphago, que logró dominar el juego de GO chino, que resistió los algoritmos convencionales hasta entonces.
Cuatro años más tarde, Alfafold lanzó, una herramienta con la que ha resuelto la cuestión del plegamiento de proteínas, uno de los principales desafíos que tuvo la biología.
Identificar la forma que tomaría una proteína de su secuencia genética podría llevar cinco años de doctorado a un biólogo en ciernes: Alphafold lo hace en unos pocos segundos.
"Hay alrededor de 200 millones de proteínas conocidas. Ya los hemos doblado a todos"Hassabis ha expresado, cuyo software resolvió en solo un año un problema en el que la biología había estado trabajando durante décadas y no tenía visiones para terminar a corto plazo sin IA.
Problema de escala
El investigador dijo que los laboratorios de Google pensaron que los modelos de idiomas no estarían listos para ser utilizados por el público en general hasta que resolvieron sus problemas con el "alucinaciones" y falta de rigor en algunos casos.
Se sorprendió cuando, "dos años antes de lo que esperábamos"El lanzamiento de ChatGPT ha llevado a millones de personas a usarlas para tareas como escribir código y resumir documentos, aunque no están "100 % preciso".
Al abordar la estrategia de AI, Hassibis cree que han "Aplicó la mentalidad de crecimiento del valle de Sillicon" y tener "escala a velocidad máxima" Algunos modelos que ya existían.
"Nadie predijo estas nuevas capacidades que simplemente surgieron al escalar (el sistema), sin otras innovaciones"dijo.
Peligros futuros
El fundador de Google Deepmind coincide con otros expertos en el campo en la advertencia de los peligros futuros de la IA. "Hoy no es un problema, porque los sistemas actuales están relativamente en sus primeras etapas"Él dice.
Sin embargo, en el futuro, los sistemas inteligentes podrían caer en manos de actores maliciosos y suponer un mayor peligro.
"Si anticipamos tres, cuatro o cinco años, comenzamos a hablar sobre sistemas con capacidades de planificación, capaces de actuar en el mundo y resolver problemas, tener objetivos."dijo.
"La sociedad tiene que pensar realmente en estos problemas, lo que sucede si los actores con malas intenciones proliferan, desde individuos hasta estados, que pueden aprovechar eso"Añadió.
Por: Efusión