_
_
_
_
_

Los ordenadores del futuro

Los físicos e informáticos se plantean superar las limitaciones físicas de los 'chips' de silicio

Cualquiera que compre un ordenador hoy en día sabe que quedará obsoleto en un par de años. Ahora damos por sentado el inexorable aumento de la potencia de los ordenadores. Pero eso no puede seguir así eternamente, al menos, si los ordenadores siguen estando basados en las actuales tecnologías. Gordon Moore, cofundador de Intel y uno de los gurús de la tecnología de la información, prevé que los métodos de miniaturización existentes sólo ofrecerán dos generaciones más de ordenadores antes de que se agote su capacidad.En 1965, Moore hizo una predicción que se vio confirmada con asombrosa precisión en las tres décadas siguientes: la potencia de los ordenadores se duplicaría cada 18 meses. Este aumento se ha debido sobre todo al tamaño cada vez más pequeño de los componentes electrónicos, de forma que cada vez se pueden introducir más de ellos en un microprocesador o chip. Un chip moderno de sólo medio centímetro cuadrado contiene muchos millones de diminutos componentes electrónicos como los transistores. Cada uno mide menos de una micra de diámetro, más o menos la centésima parte del grosor de un cabello humano.

Más información
"Los militares quieren saber si se podrán desvelar sus secretos"
Teletransportación atómica para aumentar la velocidad de los ordenadores

Estos componentes están hechos básicamente de silicio, que conduce la electricidad, y de dióxido de silicio, que es un aislante. Para grabar las tarjetas de circuito en microprocesadores de silicio se emplea actualmente una técnica llamada fotolitografía, mediante la cual se forma sobre las capas de silicio o de dióxido de silicio una película de polímero que lleva el esquema del conjunto de circuitos. El patrón del circuito se graba en la película de polímero exponiéndolo a la luz a través de una máscara. A continuación se aplican sustancias químicas de grabado que corroen el material de silicio no protegido.

Limitación

El tamaño de los elementos que se pueden crear mediante este procedimiento está limitado por la longitud de onda de la luz utilizada para fijar el patrón. Actualmente, pueden llegar a medir solamente una quinta parte de una micra. Pero para crear componentes electrónicos aún más pequeños -de hasta una décima parte de una micra de diámetro- los fabricantes de microprocesadores necesitarán optar por una radiación de una longitud de onda más corta: la luz ultravioleta de menor longitud, los rayos X o los haces de electrones de alta energía. Los grandes de los ordenadores todavía no se han puesto de acuerdo sobre qué clase escoger, pero, en cualquier caso, los costes del desarrollo de la nueva tecnología y de la posterior variación del proceso de producción serán enormes. IBM, Motorola, Lucent Technologies y Lockheed Martin se han visto obligadas a colaborar en el desarrollo de la litografía de rayos X.

Pero la miniaturización no está limitada únicamente por la fotolitografía. Aunque se puedan idear métodos para fabricar transistores y otros dispositivos de un tamaño aún menor, ¿seguirán funcionando eficazmente? La ley de Moore prevé que, para el año 2002, el elemento más pequeño de un transistor de silicio, el aislante de la puerta, tendrá un diámetro de sólo 4 ó 5 átomos. ¿Seguirá proporcionando el aislamiento necesario esta capa tan fina?

Esta cuestión ha sido investigada recientemente por el físico David Miller y sus compañeros de Lucent Technologies. Utilizaron tecnologías de fabricación avanzadas para conseguir una película de dióxido de silicio de un grosor de 5 átomos que introdujeron entre dos capas de silicio. En comparación, los microprocesadores comerciales tienen aislantes de unos 25 átomos de grosor.

Miller y sus compañeros descubrieron que su ultradelgado óxido aislante ya no era capaz de aislar las capas de silicio. Los investigadores calcularon que un aislante de un grosor inferior a 4 átomos de ancho tendría tantas pérdidas que sería inútil. De hecho, debido a las limitaciones para fabricar películas perfectamente lisas, incluso aislantes con el doble de grosor empezarían a romperse si se fabricasen con los métodos actuales.

Por consiguiente, los transistores de silicio convencionales habrán alcanzado sus dimensiones operativas mínimas en sólo una década más o menos. Muchos tecnólogos informáticos afirman que, por el momento, el silicio es "lo que hay"; pero puede que lo que hay se acabe pronto.

Por otra parte, intentar imaginar el ordenador del futuro es arriesgarse a parecer tan absurdo como la ciencia ficción de los años cincuenta, cuya visión del futuro era el torpe robot Robbie. Sin embargo, a juzgar por los actuales sueños de los tecnólogos, podremos prescindir de las cajas de plástico y de los chips de silicio. Algunos dicen que los ordenadores se parecerán más a organismos, sus cables e interruptores estarán compuestos de moléculas orgánicas individuales. Otros hablan de practicar la informática en una cubeta de agua, salpicada con hebras de ADN, el material genético de las células, o enriquecida con moléculas que manipulen datos como respuesta a las vibraciones de ondas de radio.

Una cosa parece segura: para que los ordenadores tengan cada vez más potencia, sus componentes, los elementos básicos de los circuitos lógicos, tendrán que ser increíblemente diminutos. Si la actual tendencia a la miniaturización persiste, estos componentes alcanzarán el tamaño de moléculas individuales en menos de un par de décadas, como hemos visto.

Los científicos ya están examinando el uso de moléculas de carbono llamadas nanotubos como cables de tamaño molecular que pueden ser utilizados para conectar componentes de silicio convencionales de estado sólido.. Los nanotubos de carbono pueden medir sólo unas cuantas millonésimas de milímetro, es decir, unos pocos nanometros, que equivale a menos de una décima parte del diámetro de los cables más pequeños que se pueden grabar en los chips de silicio comerciales. Se trata de unos tubos huecos de carbono puro, que son extremadamente fuertes y tienen la atracción añadida de que algunos de ellos conducen la electricidad. Los científicos de la Universidad Stanford en California han cultivado a partir de gas metano nanotubos de carbono que conectan dos terminales de componentes electrónicos.

Pero la conexión de los cables es la parte fácil. ¿Pueden las moléculas procesar información binaria? Es decir, ¿pueden combinar secuencias de bits (los unos y los ceros codificados como impulsos eléctricos en los ordenadores actuales) como las puertas lógicas compuestas de transistores y de otros dispositivos de los chips de silicio? En una operación lógica, algunas combinaciones de unos y ceros en las señales de entrada generan otras combinaciones en las señales de salida. De esta manera, los datos son comparados, ordenados, añadidos, multiplicados o manipulados de otras formas. Algunas operaciones lógicas han sido llevadas a cabo por moléculas individuales, con los bits codificados no como impulsos eléctricos, sino como impulsos de luz o como otros componentes moleculares. Por ejemplo, una molécula podría descargar un fotón -una partícula luminosa- si recibiera un átomo de metal cargado y un fotón de un color diferente, pero no si recibiera solamente uno de los dos. Sin embargo, nadie tiene una idea real de cómo conectar estas moléculas a un circuito fiable y complejo que sirva para calcular, un auténtico ordenador molecular. Algunos detractores dicen que la informática molecular nunca será viable.

Cálculos con ADN

A principios de los años noventa, Leonard Adleman, de la Universidad de California del Sur, propuso una forma diferente de utilizar moléculas para calcular, e indicó que la base de datos de la propia célula -el ADN- se puede utilizar para resolver problemas de cálculo.

Adleman se dio cuenta de que el ADN -básicamente una cadena de cuatro componentes moleculares diferentes o bases que actúan como un código de cuatro letras de la información genética- se parece notablemente al ordenador universal postulado en los años treinta por el genio matemático Alan Turing, que almacena información binaria en una cinta. Diferentes cadenas de bases se pueden programar a voluntad en hebras sintéticas de ADN utilizando las técnicas de la biotecnología moderna; y después estas hebras se pueden generar, cortar y ensamblar en cantidades ingentes. ¿Se podrían utilizar estos métodos para con-

Pasa a la página siguiente

Viene de la página anterior

vencer al ADN de que calculase como una máquina de Turing?

Adleman vio que el sistema del ADN podría ser especialmente apto para resolver problemas de minimización, como por ejemplo encontrar la ruta más corta para conectar varias ciudades. Este tipo de problemas es uno de los que más les cuesta resolver a los ordenadores convencionales, ya que el número de rutas posibles aumenta muy rápidamente a medida que se incluyen más ciudades. Un ordenador corriente tarda mucho en examinar todas esas opciones. Pero si cada solución posible está codificadas en una hebra de ADN, el problema no parece tan terrible, porque incluso una simple pizca de ADN contiene muchos billones de moléculas. de forma que sólo hace falta separar las hebras de ADN que tienen codificada la mejor solución. Esto se puede hacer utilizando métodos biotecnológicos que reconocen secuencias cortas específicas de las bases de una hebra de ADN.En realidad, este procedimiento no es más que una forma ligeramente poco ortodoxa de encontrar una solución: en primer lugar, encontrar todas las soluciones posibles y después utilizar operaciones lógicas para elegir la correcta. Pero, como todo ocurre paralelamente -todas las posibles soluciones son creadas y examinadas al mismo tiempo- el proceso puede ser muy rápido.

El cálculo por ADN ha sido demostrado en principio, pero todavía no se ha probado que resuelva problemas que un ordenador convencional no pueda resolver. Parece más apto para un conjunto de problemas bastante específico, como la minimización y la codificación que como método de cálculo para cuestiones de todo tipo.

El mundo cuántico

Ya en los años sesenta, algunos científicos informáticos se percataron de adónde les llevaba la miniaturización: hacia el reino cuántico, donde las reglas contraintuitivas de la mecánica cuántica gobiernan el comportamiento de la materia. A medida que los dispositivos convencionales de los circuitos se vuelven más pequeños, los efectos cuánticos se convierten en un aspecto cada vez más importante de su comportamiento. ¿Podría ser factible, se preguntaron, convertir esta posible complicación en una ventaja?

Esta sugerencia dio fruto en los años ochenta, cuando los físicos empezaron a observar atentamente cómo podría operar un ordenador bajo la influencia de la mecánica cuántica. Lo que descubrieron fue que podía ganar enormemente en velocidad.

La diferencia crucial entre procesar información en el mundo cuántico y en el clásico es que el primero no es blanco y negro. En un ordenador clásico, todos los bits de información son o una cosa u otra: o un 1 ó un 0. Pero un bit cuántico, un qubit, puede ser una mezcla de ambos. Los objetos cuánticos pueden existir en una superposición de estados que es clásicamente exclusiva, como el famoso gato de Schrödinger que no está ni vivo, ni muerto, sino en una superposición de las dos cosas. Esto significa que una serie de interruptores cuánticos -objetos en estados cuánticos bien definidos, como átomos en diferentes estados de excitación- posee bastantes más configuraciones de qubits que la correspondiente serie clásica de bits. Por ejemplo, mientras que una memoria clásica de tres bits puede almacenar sólo una de las ocho configuraciones posibles de unos y ceros, la correspondiente serie cuántica puede almacenar las ocho, en una superposición de estados. Esta multiplicidad de estados da a los ordenadores cuánticos bastante más potencia y, por lo tanto, bastante más velocidad, que a sus compañeros clásicos. Pero, en realidad, plasmar estas ideas en un dispositivo físico supone un reto descomunal. Una superposición cuántica de estados es una cosa muy delicada, y difícil de mantener, sobre todo si está extendida por un enorme conjunto de elementos lógicos. Una vez que esta superposición empieza a interactuar con su entorno, comienza a desplomarse y la información cuántica se pierde por los alrededores. Algunos investigadores creen que este problema volverá la informática cuántica a gran escala -en la que grandes cantidades de datos son manipulados en multitud de pasos- imposiblemente delicada y difícil de manejar. Pero el problema ha sido aminorado en los últimos años por el desarrollo de algoritmos que permitirán funcionar a los ordenadores cuánticos, a pesar de los pequeños errores introducidos por este tipo de pérdidas. Allá por 1947, cuando se inventó el transistor, nadie imaginaba lo rápidamente que llevaría a los superordenadores de hoy en día. Quizá ahora nos encontremos en un momento comparable con respecto a los ordenadores cuánticos, que se materializarán antes de lo que nadie osaría imaginar.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_