Red de conocimientos turísticos - Información de alquiler - La naturaleza selecciona 10 proyectos de códigos informáticos que están cambiando la ciencia

La naturaleza selecciona 10 proyectos de códigos informáticos que están cambiando la ciencia

Desde Fortran hasta arXiv.org, estos códigos y plataformas informáticas han permitido que el desarrollo de disciplinas como la biología, la ciencia climática y la física alcance un ritmo verdaderamente "rápido".

En 2019, el equipo del Event Horizon Telescope permitió al mundo ver cómo se ve un agujero negro por primera vez. Sin embargo, la imagen del objeto luminoso en forma de anillo publicada por los investigadores no es una imagen tradicional, sino obtenida mediante cálculos. Utilizando datos de radiotelescopios de Estados Unidos, México, Chile, España y la Antártida, los investigadores realizaron transformaciones matemáticas para crear la imagen icónica. El equipo de investigación también publicó el código de programación utilizado para lograr esta hazaña y escribió un artículo que documenta el descubrimiento para que otros investigadores puedan analizarlo más a fondo.

Este patrón es cada vez más común. Desde la astronomía hasta la zoología, las computadoras están detrás de todos los descubrimientos científicos importantes de los tiempos modernos. Michael Levitt, biólogo computacional de la Universidad de Stanford que compartió el Premio Nobel de Química en 2013 con otros dos investigadores "por crear modelos multiescala de sistemas químicos complejos", señaló que la memoria y la velocidad del reloj de los portátiles actuales son 10.000 veces más potentes que las de los ordenadores construidos. en el laboratorio cuando comenzó su premiado trabajo en 1967. "Hoy en día tenemos una potencia informática considerable", afirmó. "El problema es que todavía tenemos que pensar". Por muy potente que sea una computadora, es inútil. La investigación científica actual ha estado fundamentalmente ligada al software informático, que ha penetrado en todos los aspectos del trabajo de investigación. Recientemente, la revista Nature analizó entre bastidores los códigos informáticos clave que han transformado la investigación científica en las últimas décadas y enumeró 10 de los proyectos informáticos clave.

Esta computadora CDC 3600 fue entregada al Centro Nacional de Investigación Atmosférica en Boulder, Colorado, en 1963, y los investigadores la programaron con la ayuda del compilador Fortran

Pionero del lenguaje: Fortran Compiler (1957)

Los primeros ordenadores modernos no eran fáciles de manejar. La programación en ese momento se lograba conectando manualmente cables en filas de circuitos. Más tarde, surgieron el lenguaje de máquina y el lenguaje ensamblador, que permitieron a los usuarios programar computadoras con código, pero ambos lenguajes requerían una comprensión profunda de la arquitectura de la computadora, lo que hacía difícil dominarlos para muchos científicos.

Esta situación cambió en la década de 1950 con el desarrollo de los lenguajes simbólicos, concretamente el lenguaje de "traducción de fórmulas" Fortran, desarrollado por John Backus y su equipo en IBM en San José, California. Con Fortran, los usuarios pueden programar con instrucciones legibles por humanos, como x = 3 5. Luego, el compilador convierte estas instrucciones en código de máquina rápido y eficiente.

Sin embargo, este proceso todavía no es sencillo. Los primeros programadores usaban tarjetas perforadas para ingresar código, y las simulaciones complejas podían requerir decenas de miles de tarjetas perforadas. Aún así, Syukuro Manabe, climatólogo de la Universidad de Princeton en Nueva Jersey, señala que Fortran permite programar a científicos que no son informáticos. "Esta es la primera vez que podemos programar computadoras nosotros mismos", dijo. El modelo climático que él y sus colegas desarrollaron utilizando este lenguaje fue uno de los primeros en tener éxito.

Fortran se encuentra en su octava década de desarrollo y todavía se utiliza ampliamente en modelado climático, dinámica de fluidos, química computacional y otras disciplinas, todas las cuales involucran álgebra lineal compleja y requieren computadoras poderosas para procesar rápidamente. El código generado por Fortran es rápido y todavía hay muchos programadores que saben cómo escribirlo. La antigua base del código Fortran todavía está activa en laboratorios y supercomputadoras de todo el mundo.

"Los programadores de los viejos tiempos sabían lo que estaban haciendo", dijo Frank Giraldo, matemático aplicado y modelador climático del Instituto Naval de EE. UU. "Eran muy conscientes de la memoria porque tenían muy poca memoria". > Procesador de señales: Transformada rápida de Fourier (1965)

Cuando los radioastrónomos escanean el cielo, capturan una compleja cacofonía de señales que cambian con el tiempo. Para comprender la naturaleza de estas ondas de radio, necesitaban ver cómo se veían estas señales en función de la frecuencia. Un proceso matemático llamado "transformada de Fourier" puede ayudar a los investigadores, pero es ineficiente y requiere N^2 cálculos para un conjunto de datos de tamaño N.

En 1965, los matemáticos estadounidenses James Cooley y John Tukey descubrieron una manera de acelerar el proceso. La Transformada Rápida de Fourier (FFT) reduce el problema de calcular la transformada de Fourier a N log2 (N) pasos mediante recursividad (un método de programación que resuelve un problema dividiéndolo repetidamente en subproblemas homogéneos). A medida que N aumenta, la velocidad también aumenta. Para 1.000 puntos, el aumento de velocidad es aproximadamente 100 veces; para 1 millón de puntos, es 50.000 veces.

Este "descubrimiento" es en realidad un redescubrimiento, porque el matemático alemán Gauss lo estudió en 1805, pero nunca lo publicó. James Cooley y John Dukey lo hicieron. Abrieron la aplicación de la transformada de Fourier en el procesamiento de señales digitales, análisis de imágenes, biología estructural y otros campos, convirtiéndose en uno de los principales acontecimientos en los campos de las matemáticas aplicadas y la ingeniería. FFT se ha utilizado en código muchas veces. Una solución popular en los últimos años es FFTW, que se considera la FFT más rápida del mundo.

Paul Adams, director de la División de Biofísica Molecular y Bioimagen Integrada del Laboratorio Nacional Lawrence Berkeley en California, recuerda que cuando estaba mejorando la estructura de geles de proteínas bacterianas en 1995, incluso utilizando FFT y supercomputadoras, que también requieren "muchas horas, incluso días" de cálculos. "Si intentas hacer esto sin FFT, no sé cómo lo harías en realidad", dijo. "Probablemente llevaría mucho tiempo".

Catalogación molecular: bases de datos biológicas (). 1965)

Las bases de datos son una parte tan integral de la investigación científica actual que es fácil olvidar que también están impulsadas por software. El tamaño de los recursos de las bases de datos se ha expandido dramáticamente en las últimas décadas, afectando a muchos campos, pero quizás en ningún campo los cambios han sido más dramáticos que en la biología.

El Protein Data Bank cuenta con un archivo de más de 170.000 estructuras moleculares, incluido el "expresoma" bacteriano, que funciona para combinar los procesos de síntesis de ARN y proteínas.

Las vastas bases de datos de genoma y proteínas utilizadas por los científicos hoy en día se originaron a partir del trabajo de Margaret Dyhoff, una química física estadounidense y pionera en el campo de la bioinformática. A principios de la década de 1960, mientras los biólogos trabajaban para desentrañar las secuencias de aminoácidos de las proteínas, Dyhoff comenzó a clasificar esta información para buscar pistas sobre las relaciones evolutivas entre diferentes especies. Ella y tres coautores publicaron "Protein Sequence and Structure Atlas" en 1965, describiendo las secuencias, estructuras y similitudes de 65 proteínas conocidas en ese momento. El historiador Bruno Strasser escribió en 2010 que se trataba del primer conjunto de datos "no relacionado con una pregunta de investigación específica" que codificaba los datos en tarjetas perforadas, lo que permitió ampliar la base de datos y realizar búsquedas.

Le siguieron otras bases de datos biológicas "informatizadas". El banco de datos de proteínas se puso en funcionamiento en 1971 y actualmente registra en detalle más de 170.000 estructuras macromoleculares. Russell Doolittle, biólogo evolutivo de la Universidad de California en San Diego, creó otra base de datos de proteínas llamada Newat en 1981.

En 1982, los Institutos Nacionales de Salud (NIH) colaboraron con múltiples instituciones para establecer GenBank, una base de datos de secuencias de ADN de acceso abierto.

Estos recursos de bases de datos demostraron su valor en julio de 1983. En ese momento, un equipo dirigido por Michael Waterfield, bioquímico de proteínas de la Fundación Imperial para la Investigación del Cáncer en Londres, y el equipo de Doolittle informaron de forma independiente que una secuencia especial del factor de crecimiento humano estaba relacionada con una proteína viral que causaba cáncer en monos. Las observaciones sugieren un mecanismo por el cual los virus inducen tumores: al imitar un factor de crecimiento, los virus inducen a las células a crecer sin control. James Austell, ex director del Centro Nacional de Información Biotecnológica (NCBI), dijo: "Este resultado dio a algunos biólogos que no estaban interesados ​​en las computadoras y las estadísticas un destello de inspiración: podemos aprender sobre genes relacionados comparando secuencias. Algunos aspectos de cáncer."

Osterl también dijo que este descubrimiento marca la "llegada de la biología objetiva". Además de diseñar experimentos para probar hipótesis específicas, los investigadores pueden extraer conjuntos de datos públicos para buscar conexiones en las que quienes realmente recopilaron los datos tal vez nunca hubieran pensado. Este poder aumenta dramáticamente cuando se unen conjuntos de datos dispares. Por ejemplo, los programadores del NCBI lograron esto en 1991 con Entrez; una herramienta que permitió a los investigadores buscar y comparar libremente ADN, proteínas y literatura.

Líder en previsión: patrones de circulación general (1969)

Al final de la Segunda Guerra Mundial, el pionero de la informática John von Neumann comenzó a aplicar los ordenadores que calculaban trayectorias balísticas y el diseño de armas recurría a El problema de la predicción del tiempo. Hasta entonces, explicó Manabe, "la previsión meteorológica era sólo empírica", utilizando la experiencia y la intuición para predecir lo que sucedería a continuación. Por el contrario, el equipo de von Neumann "intentó realizar predicciones meteorológicas numéricas basadas en las leyes de la física".

La gente conoce estas ecuaciones desde hace décadas, dijo Venkatramani Balaji, jefe de la división de sistemas de modelado del Laboratorio de Dinámica de Fluidos Geofísicos de la Administración Nacional Oceánica y Atmosférica (NOAA) en Princeton, Nueva Jersey. Pero los primeros meteorólogos no tenían una solución práctica para estos problemas. Para hacer esto, ingresa las condiciones actuales, calcula cómo cambiarán en un corto período de tiempo y repite. Este proceso requiere tanto tiempo que los cálculos no se pueden completar hasta que las condiciones climáticas realmente ocurran. En 1922, el matemático Lewis Fry Richardson pasó varios meses calculando un pronóstico de seis horas para Munich, Alemania. Según un relato histórico, sus resultados fueron "extremadamente inexactos" e incluían predicciones "imposibles de ocurrir en cualquier condición terrestre conocida". Las computadoras hacen que este problema sea fácil de resolver.

A finales de la década de 1940, von Neumann creó un equipo de predicción meteorológica en el Instituto de Estudios Avanzados de Princeton. En 1955, un segundo grupo, el Laboratorio de Dinámica de Fluidos Geofísicos, comenzó a trabajar en lo que llamó "predicciones infinitas" o modelos climáticos.

Manabe se unió al equipo de modelización climática en 1958 y comenzó a trabajar en modelos atmosféricos; su colega Kirk Bryan aplicó el modelo a la investigación oceánica. En 1969, combinaron con éxito los dos, creando lo que la revista Nature llamó un "hito" en la informática científica en 2006.

El modelo actual puede dividir la superficie terrestre en cuadrados de 25 kilómetros por 25 kilómetros, y dividir la atmósfera en decenas de capas. En comparación, el modelo conjunto océano-atmósfera de Manabe y Bryan divide un área de 500 kilómetros cuadrados y divide la atmósfera en nueve niveles, cubriendo solo una sexta parte de la Tierra. Aún así, dice Venkatramani Balaji, "el modelo hace un gran trabajo" y permite al equipo de investigación predecir los efectos del aumento de los niveles de dióxido de carbono in silico por primera vez.

Máquina de procesamiento de números: BLAS (1979)

La informática científica suele implicar el uso de vectores y matrices para realizar operaciones matemáticas relativamente simples, pero hay demasiadas. Pero en la década de 1970 no existía un conjunto universalmente reconocido de herramientas computacionales para realizar estas operaciones. Como resultado, los programadores que trabajan en ciencias dedican su tiempo a diseñar código eficiente para realizar operaciones matemáticas básicas en lugar de centrarse en problemas científicos.

El superordenador Cray-1 en el Laboratorio Nacional Lawrence Livermore en California. Antes de la llegada de la herramienta de programación BLAS en 1979, no existía un estándar de álgebra lineal para los investigadores que trabajaban en máquinas como la supercomputadora Cray-1.

El mundo de la programación necesitaba un estándar. En 1979 apareció un estándar de este tipo: Subprogramas básicos de álgebra lineal (BLAS). Este es un estándar de interfaz de programación de aplicaciones (API) para bibliotecas numéricas que publican operaciones básicas de álgebra lineal, como la multiplicación de vectores o matrices. El estándar se desarrolló hasta 1990, definiendo docenas de rutinas básicas para matemáticas vectoriales y más tarde matemáticas matriciales.

Jack Tangara, científico informático de la Universidad de Tennessee y miembro del equipo de desarrollo de BLAS, afirmó que, de hecho, BLAS simplifica las matemáticas matriciales y vectoriales en unidades de cálculo tan básicas como la suma y la resta.

Robert van de Geijn, científico informático de la Universidad de Texas en Austin, señaló que BLAS "puede ser la interfaz más importante definida para la informática científica". Además de proporcionar nombres estandarizados para funciones de uso común, los investigadores pueden garantizar que el código basado en BLAS funcione de la misma manera en cualquier computadora. El estándar también permite a los fabricantes de computadoras optimizar la instalación y habilitación de BLAS para una operación rápida en su hardware.

Durante más de 40 años, BLAS ha representado el corazón de la informática científica: el código que hace que el software científico funcione. Lorena Barba, ingeniera mecánica y aeroespacial de la Universidad George Washington en Estados Unidos, lo llama "maquinaria en cinco capas de código". Y Jack Tangara dijo: "Proporciona la estructura básica para nuestros cálculos".

Microscope Essentials: NIH Image (1987)

A principios de los años 80, el programador Wayne Rasband trabaja en el Instituto Nacional. Laboratorio de imágenes cerebrales de los Institutos de Salud en Bethesda, Maryland. El laboratorio tiene un escáner que puede digitalizar rayos X pero no puede mostrarlos ni analizarlos en una computadora. Para ello, Rasband escribió un programa.

Este programa fue diseñado específicamente para una minicomputadora PDP-11 de 150.000 dólares, una computadora montada en un estante que claramente no era adecuada para uso personal. Luego, en 1987, Apple lanzó el Macintosh II, una opción más amigable y asequible. "En mi opinión, este es claramente un mejor sistema para el análisis de imágenes en el laboratorio", dijo Rasband. Movió el software a una nueva plataforma, le cambió el nombre y estableció un ecosistema de análisis de imágenes.

NIH Image y sus versiones posteriores permiten a los investigadores ver y cuantificar prácticamente cualquier imagen en cualquier ordenador. La familia de software incluye ImageJ, una versión basada en Java escrita por Rasband para usuarios de Windows y Linux; y Fiji, una distribución de ImageJ desarrollada por Max Planck del Departamento de Biología Celular y Genética Molecular en Dresden, Alemania. en el Instituto de Ciencia y Tecnología, incluye complementos clave.

“ImageJ es definitivamente la herramienta más fundamental que tenemos”, dice Beth Chimini, bióloga computacional de Imaging Platform en el Broad Institute, una empresa conjunta del MIT y Harvard. “Nunca he trabajado con un biólogo que haya usado un microscopio. pero ni ImageJ ni Fiji hablaron con nosotros. Rasband dijo que parte de la razón puede ser que estas herramientas son gratuitas. Pero otra razón, afirma Kevin Eliceiri, ingeniero biomédico de la Universidad de Wisconsin-Madison, es que los usuarios pueden adaptar fácilmente las herramientas a sus necesidades. El equipo de Kevin Eliceiri ha liderado el desarrollo de ImageJ desde el retiro de Rasband. ImageJ ofrece una interfaz de usuario aparentemente simple y minimalista que esencialmente no ha cambiado desde la década de 1990. Sin embargo, la herramienta es infinitamente escalable gracias a su grabador de macros incorporado (que permite a los usuarios guardar flujos de trabajo grabando secuencias de clics del mouse y selecciones de menú), amplia compatibilidad de formatos de archivo y arquitectura de complementos flexible. Curtis Ruden, director de programación del equipo, dijo que "cientos de personas" han contribuido con complementos a ImageJ. Estas capacidades recién agregadas amplían enormemente el conjunto de herramientas de los investigadores, como la capacidad de rastrear objetos en video o identificar células automáticamente.

Kevin Eliceiri dijo: "El propósito de este programa no es serlo todo ni acabar con todo, sino servir a los objetivos del usuario. A diferencia de Photoshop y otros programas, ImageJ puede ser cualquier cosa que quieras que sea. "

Buscador de secuencias: BLAST (1990)

Quizás nada ilustra mejor la relevancia cultural que convertir los nombres de software en verbos. Cuando piensas en búsqueda, piensas en Google; cuando se trata de genética, los investigadores inmediatamente piensan en BLAST.

A través de métodos como sustituciones, eliminaciones, eliminaciones y reordenamientos, los organismos graban cambios evolutivos en sus secuencias moleculares. Buscar similitudes entre secuencias, especialmente entre proteínas, permite a los investigadores descubrir relaciones evolutivas y obtener información sobre la función de los genes. Hacer esto de forma rápida y precisa no es fácil en una base de datos de información molecular en rápida expansión.

Margaret Dyhoff aportó avances clave en 1978. Diseñó una matriz de "mutación puntual de aceptación" que permite a los investigadores evaluar la relación de dos proteínas basándose no sólo en cuán similares son sus secuencias, sino también en su distancia evolutiva.

En 1985, William Pearson de la Universidad de Virginia y David Lippman del NCBI introdujeron FASTP, un algoritmo que combinaba las capacidades de la matriz de Dayhoff y la búsqueda rápida.

Varios años después, Lipman, junto con Warren Gish y Stephen Altshur del NCBI, Webb Miller de la Universidad Estatal de Pensilvania y Gene Miles de la Universidad de Arizona se desarrolló una tecnología más potente y mejorada: BLAST (Basic Herramienta de búsqueda de alineación local). Lanzado en 1990, BLAST combinaba la velocidad de búsqueda necesaria para manejar bases de datos en rápido crecimiento con la capacidad de extraer coincidencias evolutivamente más distantes. Al mismo tiempo, la herramienta también puede calcular la probabilidad de que ocurran estas coincidencias.

Altshur dijo que los resultados del cálculo aparecen muy rápidamente: "Puede ingresar el contenido de la búsqueda, tomar un sorbo de café y la búsqueda se completa pero, lo más importante, BLAST es fácil de usar". En una era en la que las bases de datos se actualizaban por correo, Warren Gish estableció un sistema de correo electrónico y, más tarde, una arquitectura basada en la web que permitía a los usuarios realizar búsquedas de forma remota en las computadoras del NCBI, garantizando que los resultados de la búsqueda estuvieran siempre actualizados.

Sean Eddy, biólogo computacional de la Universidad de Harvard, dijo que el sistema BLAST proporcionó una herramienta transformadora para el entonces naciente campo de la biología genómica, un método para encontrar genes desconocidos basándose en métodos de genes relacionados con posibles funciones. de genes. También proporciona un verbo novedoso para los laboratorios de secuenciación en todas partes. "Es uno de los muchos ejemplos de cómo un sustantivo se convierte en verbo", dijo Eddie. "Dices que vas a explotar tu secuencia".

Plataforma de preimpresión: arXiv.org (1991

A finales de la década de 1980, los físicos de altas energías a menudo enviaban por correo copias de los manuscritos que habían enviado a sus colegas para solicitar sus comentarios, pero sólo a unos pocos. El físico Paul Ginsparger escribió en 2017: "Los que están más abajo en la cadena alimentaria dependen del trabajo de investigadores de primera línea, mientras que los aspirantes a investigadores de instituciones que no son de élite a menudo viven fuera de los círculos privilegiados". , que entonces trabajaba en el Laboratorio Nacional de Los Álamos en Nuevo México, escribió una respuesta automática por correo electrónico con la esperanza de nivelar el campo de juego. Los suscriptores reciben una lista diaria de preimpresiones, cada una asociada con un identificador de artículo. Con solo un correo electrónico, los usuarios de todo el mundo pueden enviar o recuperar artículos de los sistemas informáticos del laboratorio y obtener una lista de artículos nuevos o buscar por autor o título.

El plan de Ginsparger era mantener el periódico abierto durante tres meses y limitar el contenido a la comunidad de física de altas energías. Pero un colega lo convenció de conservar los artículos indefinidamente. “Fue entonces cuando pasó de un tablón de anuncios a un archivo”, dijo. Empezaron a llegar documentos de todos los campos. En 1993, Ginsberg trasladó el sistema a Internet y en 1998 lo llamó arXiv.org, que todavía se utiliza en la actualidad.

arXiv existe desde hace casi 30 años y cuenta con aproximadamente 1,8 millones de preimpresiones, todas las cuales están disponibles de forma gratuita. Cada mes se envían más de 15 000 artículos y se descargan 30 millones de veces. Hace diez años, el editor de Nature Photonics escribió al comentar el vigésimo aniversario de arXiv: "No es difícil ver por qué el servicio de arXiv es tan popular. Este sistema permite a los investigadores insertar rápida y fácilmente un banner que muestra el trabajo que realizan. evitando al mismo tiempo la molestia y el costo de tiempo de enviar a revistas tradicionales revisadas por pares". El éxito de arXiv también ha impulsado disciplinas similares en biología, medicina, sociología y otras disciplinas. El auge de los sitios de preimpresión. Este impacto se puede ver en las decenas de miles de preimpresiones sobre el coronavirus que se han publicado hoy. "Es fantástico ver que un enfoque que hace 30 años se consideraba herético fuera de la comunidad de la física de partículas ahora se considera generalmente mundano y natural", dijo Ginsburg. "En ese sentido, es como un proyecto de investigación exitoso". p> Explorador de datos: IPython Notebook (2011)

En 2001, Fernando Pérez era un estudiante de posgrado con la esperanza de "encontrar la procrastinación", cuando decidió adoptar un componente central de Python.

Python es un lenguaje interpretado, lo que significa que el programa se ejecuta línea por línea. Los programadores pueden utilizar una función computacional de llamada y respuesta llamada bucle de lectura, evaluación e impresión (REPL), donde ingresan el código y el intérprete lo ejecuta. El REPL permite una exploración e iteración rápidas, pero Pérez señala que el REPL de Python no está diseñado con fines científicos. Por ejemplo, no permite a los usuarios precargar cómodamente módulos de código ni abrir visualizaciones de datos. Entonces Pérez escribió otra versión él mismo.

El resultado fue el nacimiento de IPython, un intérprete de Python "interactivo" lanzado por Pérez en diciembre de 2001 con 259 líneas de código. Diez años después, Pérez se asoció con el físico Brian Granger y el matemático Evan Patterson para trasladar la herramienta al navegador web y lanzar IPython Notebook, iniciando una revolución en la ciencia de datos.

Al igual que otros cuadernos computacionales, IPython Notebook combina código, resultados, gráficos y texto en un solo documento. Pero a diferencia de otros proyectos similares, IPython Notebook es de código abierto e invita a la participación de una gran comunidad de desarrolladores. Y es compatible con Python, un lenguaje popular entre los científicos. En 2014, IPython evolucionó a Jupyter, que admite alrededor de 100 idiomas y permite a los usuarios explorar datos en supercomputadoras remotas tan fácilmente como en sus propias computadoras portátiles.

La revista "Nature" escribió en 2018: "Para los científicos de datos, Jupyter se ha convertido en un estándar". En ese momento, había 2,5 millones de portátiles Jupyter en la plataforma de intercambio de código GitHub; han aumentado a 10 millones y han desempeñado un papel importante en el descubrimiento de ondas gravitacionales en 2016 y en el trabajo de imágenes de agujeros negros en 2019. "Hacemos una pequeña contribución a estos proyectos y es muy gratificante", afirmó Pérez.

Aprendizaje rápido: AlexNet (2012)

Inteligencia artificial Hay dos tipos. Una es utilizar reglas de codificación y la otra es dejar que la computadora "aprenda" simulando la estructura neuronal del cerebro. Jeffrey Hinton, científico informático de la Universidad de Toronto en Canadá, dijo que durante décadas los investigadores de inteligencia artificial han considerado que esto último es "una completa tontería". Pero en 2012, sus estudiantes de posgrado Alex Kryszewski e Ilya Sudskvi demostraron lo contrario.

En el concurso anual ImageNet, se pidió a los investigadores que entrenaran inteligencia artificial en una base de datos de 1 millón de imágenes de objetos cotidianos y luego probaran el algoritmo resultante en un único conjunto de imágenes. Hinton dijo que los mejores algoritmos de la época clasificaron erróneamente alrededor de una cuarta parte de las imágenes. AlexNet de Krizewski y Suzkovi, un algoritmo de "aprendizaje profundo" basado en redes neuronales, redujo la tasa de error a 16. "Básicamente redujimos la tasa de error a la mitad, o casi a la mitad", dijo Hinton también señaló que el éxito del equipo en 2012 reflejó un conjunto de datos de entrenamiento suficientemente grande combinado con una excelente programación y el poder de las unidades de procesamiento de gráficos emergentes. Una unidad de procesamiento de gráficos es un procesador diseñado originalmente para acelerar el rendimiento del vídeo de la computadora. "De repente, podemos ejecutar (el algoritmo) 30 veces más rápido", dijo, "o aprender hasta 30 veces más datos".

El verdadero avance del algoritmo ocurrió hace tres años, creó el laboratorio de Hinton. una red neuronal que podía reconocer el habla con mayor precisión que la inteligencia artificial tradicional que se había perfeccionado durante décadas. "Es sólo un poco mejor", dijo Hinton, "pero es una señal de algo". Estos éxitos presagian el aumento del aprendizaje profundo en la investigación de laboratorio, la medicina clínica y otros campos. A través del aprendizaje profundo en inteligencia artificial, los teléfonos móviles pueden comprender consultas de voz y las herramientas de análisis de imágenes pueden identificar fácilmente células en fotografías microscópicas. Es por eso que AlexNet se convertirá en una de las muchas herramientas que cambiarán fundamentalmente la ciencia y también cambiarán el mundo. (Nintendo)