domingo, 23 de mayo de 2010

Nanotecnología

Check out this SlideShare Presentation:

Investigadores de IBM crean chips que se comunican con luz en lugar de circuitos de cobre

Investigadores de IBM crean chips que se comunican con luz en lugar de circuitos de cobre


Investigadores de IBM han creado un dispositivo de baja potencia que puede transferir información a alta velocidad utilizando pulsos de luz en lugar de señales eléctricas. “Fotodetector de avalancha nanofotónica” (¿Dr . Kabuto?) es el más rápido de su clase y podría permitir avances en la eficiencia energética computacional con importantes implicaciones para el futuro de la electrónica.

El dispositivo puede transmitir datos a velocidades de hasta 40Gb/s, con un 1,5 voltios. Las señales de luz se realizan a través de circuitos de silicio en vez de los cables de cobre que se utilizan ahora para llevar las señales eléctricas entre chips. Utiliza la tecnología de semiconductores existentes, pero utiliza 10 veces menos energía que los actuales modelos.

El objetivo de los investigadores es la construcción de un chip de interconexión óptica que permitiría la construcción de ordenadores capaces de ejecutar un exaflops, equivalente a 1,000,000,000,000,000,000 operaciones de punto flotante por segundo, es decir una computadora 600 veces más rápida que el ordenador más potente del mundo.


El dispositivo es conocido como "fotodetector de avalancha nanofotónica", y a falta de otra descripción, es el más rápido de su tipo. De acuerdo al doctor T.C. Chen, diseños como este hacen que la intercomunicación de chips utilizando luz se vuelva algo mucho más cercano a la realidad. Los valores estimados de velocidad para este dispositivo son sorprendentes. Es capaz de recibir transmisiones a una velocidad de 40 gigabits por segundo, y multiplicar esas señales por diez de forma simultánea. Si la velocidad no parece sorprendente, entonces su consumo de energía sí lo es. Mientras que los fotodetectores actuales requieren entre veinte y treinta voltios, el diseño de IBM podría operar con solamente 1.5 voltios, el mismo voltaje de una batería AA.

No estamos seguros de cuándo el público en general podrá tener acceso a esta clase de tecnología, pero si hay algo cierto es que tiene el potencial para cambiar completamente el diseño actual de ordenadores. Los sistemas más poderosos del mundo apenas han podido superar la barrera del petaflop, pero de acuerdo a IBM, con la intercomunicación de chips utilizando luz sería posible romper el límite del exaflop de procesamiento. De acuerdo a la lista del Top500 de superordenadores perteneciente a noviembre de 2009, el superordenador Jaguar es el más rápido del planeta, con 1.75 petaflops. Un exaflop es más de 570 veces ese número.

Silicon-on-Insulator (Silicio sobre aislante)

Silicon-on-Insulator (Silicio sobre aislante)

La nueva tecnología Silicon-on-Insulator (SOI) permitirá la construcción de ordenadores más rápidos y con menor consumo de energía, ambos factores son claves para incrementar la autonomía de los dispositivos portátiles que se van a generalizar en un futuro próximo.

En la fabricación de un chip, como ser un microprocesador, generalmente se busca integrar la mayor cantidad posible de componentes en el espacio más pequeño que permita la tecnología disponible. En general, y de acuerdo a la ley de Moore (ver recuadro) cada aproximadamente 18 meses un proceso de fabricación reemplaza a otro y permite reducir el tamaño de los componentes a la mitad, lo que permite integrar el doble de ellos en una misma superficie. Esto es muy deseable, ya que al reducir el tamaño también aumenta en forma proporcional la velocidad del dispositivo final, y disminuye la energía disipada en forma de calor.

El aumento en la velocidad de proceso se debe en parte a que al tener más componentes en un mismo espacio los electrones que transportan la información de una zona a otra del chip deben recorrer distancias mas pequeñas. A pesar que se desplazan (teóricamente) a la velocidad de la luz (unos 300.000 km/s), con frecuencias de clock actuales, superiores al Gigahertz deben recorrer los pocos milímetros de ancho del chip miles de millones de veces por segundo, por eso el mantener esas distancias lo mas cortas posibles es crucial. Por otro lado, hay algunos factores intrínsecos a las tecnologías de fabricación utilizadas que también influyen en la velocidad, una de ellas es la componente capacitiva parasita que aparece en cada transistor integrado, debido a que las diferentes capas que forman el transistor se comporta como un pequeño condensador, e introduce pequeños tiempos de demora a las señales.

Existen varias técnicas para crear los transistores que componen el chip. Generalmente se utilizan procesos litográficos, similares a los utilizados al revelar una fotografía para ir “dibujando” sobre un disco de silicio (waffer) de extrema pureza los elementos individuales que componen a cada diodo, transistor, etc. El proceso se va repitiendo, y en cada paso se crea una nueva capa de material semiconductor tipo “p” o “n” en distintas zonas del waffer, determinadas por mascaras opacas a la luz, creando una suerte de sándwich del tamaño de una uña que contiene varios millones de transistores individuales. Debido al pequeñísimo tamaño de los elementos a “revelar” no se puede utilizar luz visible, dado que su longitud de onda (unos 650 manómetros) carece de la “resolución” necesaria para dibujar transistores cuyas partes deben ser mucho mas pequeñas, de 65 manómetros (y cada vez menores). Recordemos que un manómetro es la milmillonésima parte de un metro. 65 nanómetros son la 0,000000065 avas parte de un metro.


La tecnología de silicio sobre aislante (SOI) es una técnica que se conoce desde hace algunos años, aproximadamente desde 1998, fecha en la que IBM anuncio los primeros prototipos. Esta técnica consiste en situar el silicio que formara a los transistores sobre una delgada capa de material, permitiendo mejorar así las prestaciones de los microprocesadores y las memorias semiconductoras utilizadas en los ordenadores actuales. Algunas investigaciones de IBM han revelado que los chips con tecnología de silicio sobre aislante funcionan hasta un 35% más rápido que los procesadores tradicionales, y con un consumo tres veces inferior.
Básicamente, esta técnica permite disminuir la capacidad parasita que es inherente a cada transistor fabricado con métodos tradicionales. Cada pequeño capacitor se carga y descarga en cada pulso de clock, lo que consume energía, genera calor y introduce demoras en las señales. Al disminuir este efecto capacitivo, el transistor puede funcionar más rápido.

El proceso en el que se basa la tecnología de silicio sobre aislante es simple pero requiere gran precisión, ya que como vimos antes se trabaja en superficies microscópicas: consiste en colocar sobre el substrato de silicio (el waffer) que sostiene los transistores del chip una segunda capa de un material aislante que puede ser óxido de silicio o cristal.
Los millones de transistores, cada uno comportándose como un diminuto interruptor, son colocados sobre esta segunda capa, lo que aumenta su rendimiento y elimina fallos debidos a su velocidad.

Al disminuir el tamaño de los transistores estos funcionan más rápido, pero también se corre el riesgo de que aumente el nivel de calor y el consumo de energía debido a fugas eléctricas o a una conmutación ineficaz. Para evitar estos efectos, AMD e IBM han desarrollado el “silicio tensado”. El nuevo proceso, llamado “Dual Stress Liner”, mejora el rendimiento de los dos tipos de transistores semiconductores, llamados transistores de canal N y canal P, al “estirar” los átomos de silicio de un transistor y “comprimir” los del otro. La técnica de tensión dual funciona sin necesidad de introducir nuevos procesos de fabricación, generalmente caros y complicados, lo que permite su integración rápida en la fabricación extensiva utilizando herramientas y materiales estándar. Hay varias maneras de obtener silicio tensado, pero el resultado es similar. Con silicio tensado, la estructura atómica de los caminos eléctricos en el transistor se ve forzada para conseguir un mayor alineamiento, lo que mejora el flujo eléctrico.

Cuando IBM comenzó a desarrollar la tecnología SOI, los ingenieros encontraron dificultadas para construir la capa aislante que es el corazón del proceso. Luego de probar varios materiales, encontraron que el aislante mas prometedor era el zafiro, aunque se deterioraba con relativa facilidad. Mas tarde, crearon el proceso llamado SIMOX (Separation by Implantation of Oxygen / Separación por la implantación de oxigeno). SIMOX consiste en la inyección directa de oxigeno puro sobre el waffer a altisimas temperaturas. El oxigeno se combina con el silicio creando una capa de oxido de silicio, que actúa como un aislante entre el waffer y las capas de semiconductor que se depositan litograficamente mas tarde.

Los microprocesadores AMD Opteron dual core fabricados a partir de mediados del 2005 están construidos de esta manera. Según este fabricante, estos procesos son los que han permitido obtener la mejor tasa de rendimiento por vatio consumido disponible en la actualidad.
Los microprocesadores de arquitectura Power fabricados por IBM para sus servers AS/400 también son fabricados de esta manera.

Intel también usa silicio tensado en sus nuevas versiones de Pentium 4. IBM y AMD colaboran en el desarrollo de tecnologías de fabricación de semiconductores de próxima generación desde enero de 2003.

Algunas de las ventajas de utilizar la tecnología SOI al desarrollar un nuevo chip son la utilización de tres mascaras menos al aplicar el proceso fotolitográfico, lo que no solo es mas económico (20% menos de pasos) sino que al simplificar la producción se obtienen menos cantidad de chips con bugs en cada waffer. El tamaño de los componentes individuales del chip son en promedio un 30% mas pequeños, debido a que el aislante evita fugas de electrones de un componente a otro, lo que permite una mayor integración por unidad de superficie, y una mayor velocidad de operación del chip.

Se trata de una ley empírica, formulada por Gordon E. Moore el 19 de abril de 1965, cuyo cumplimiento se ha podido verificar hasta hoy. La Ley de Moore, tal el nombre con el que se la conoce, nos dice que aproximadamente cada dos años el número de transistores integrados en un microchip se duplica. En el momento de escribir el artículo que originó su ley, Moore era Director de los laboratorios de Fairchild Semiconductor.

Gordon Moore afirmó en ese articulo que la tecnología de los microchips tenía futuro, que el número de transistores por centímetro cuadrado de superficie en circuitos integrados se duplicaba cada año y que la tendencia continuaría durante las siguientes dos décadas. Algunos años más tarde modificó su propia ley al afirmar que el ritmo bajaría, y la densidad de los transistores se duplicaría aproximadamente cada 18 meses. Esta es una progresión de crecimiento exponencial, y es la principal causa de la baja constante en el precio de los ordenadores, y fundamentalmente en el aumento de su potencia. El hecho de doblar la capacidad de los microprocesadores cada año y medio, es lo que se considera la Ley de Moore.

La consecuencia directa de la Ley de Moore es que los precios bajan al mismo tiempo que las prestaciones suben: un ordenador que hoy vale 3.000 dólares costará la mitad al año siguiente y estará obsoleto en poco más de dos años. En los últimos 26 años, tiempo transcurrido desde que Moore reformulara su ley, el número de transistores en un chip se ha incrementado nada más y nada menos que 3.200 veces. Si un automóvil hubiera incrementado su velocidad máxima en la misma proporción, actualmente dispondríamos de modelos que viajarían a unos increíbles 400000 km/hora.

Actualmente se aplica a los ordenadores personales. Sin embargo, cuando se formuló no existían los procesadores, inventados en 1971 (en Intel, compañía que Moore creo en 1968 junto a Robert Noyce), ni los PCs, popularizados en los 80.
Un semiconductor es un elemento que se comporta como un buen conductor de corriente, o como aislante dependiendo del campo eléctrico en el que se encuentre. Solamente algunas sustancias presentan esta característica. Los elementos químicos semiconductores utilizados son el Cadmio (Cd), Aluminio(Al), Galio(Ga), Boro(B), Indio(In), Silicio(Si), Germanio(Ge), Fosforo(P), Arsenio(As), Antimonio(Sb), Selenio(Se), Telurio(Te) y Azufre(S) El elemento semiconductor más usado en la actualidad, y ladrillo fundamental de los transistores que componen los microprocesadores actuales es el silicio, aunque idéntico comportamiento presentan las combinaciones de elementos de los grupos II y III con los de los grupos VI y V respectivamente (AsGa, PIn, AsGaAl, TeCd, SeCd y SCd). Últimamente se han realizado ensayos también con el Azufre. La característica común a todos ellos es que son tetravalentes. Se trata de diminutos dispositivos electrónicos, de tres terminales. La palabra transistor nace como un acrónimo o contracción de “transference resistor”. En efecto, una de las aplicaciones de los transistores es la transferencia de resistencia, que los permite usar como amplificadores, al permitir controlar una gran corriente que circule entre el “emisor” y el “colector” mediante una pequeña aplicada en el otro terminal, llamado “base”.

Pero la forma de trabajo del transistor que lo ha vuelto indispensable en el corazón de todas las computadoras es la que permite utilizarlo como una llave. En efecto, en una determinada región de trabajo, se puede comportar como una llave que permite o no el paso de la corriente, es decir, presentar un estado de “1” o “0”. Esta particularidad lo hace útil en la construcción de memorias y compuertas lógicas, elementos base de cualquier computadora.

A pesar de que la era del silicio tiene casi treinta años, se siente como si se estuviera en el comienzo de una revolución. Comenzó cuando Intel y Texas Instruments, de manera independiente, produjeron su primer chip microprocesador allá en 1971. Estos primeros chips tenían sólo un poco más de 2,000 transistores, y su velocidad no era lo que llamaríamos apabullante. En la actualidad, tenemos decenas de millones de transistores en un solo chip, y los microprocesadores con tecnologías multi-core de mas de 100 millones de transistores están siendo cada vez mas comunes. Desde 1971, las velocidades de procesamiento de un chip han ido de cerca de 0.06 millones de instrucciones por segundo (MIS) a cerca de 1000 MIS.

Todo este crecimiento en el desempeño ha sido posible gracias a la innovación permanente, y las técnicas SOI y silicio tensado son solo un exponente más de ellas.

La NASA desarrolla un chip capaz de soportar temperaturas de hasta 600º sin fallar

Los que somos aficionados a la electrónica sabemos que un circuito integrado convencional funcionará más o menos bien hasta los 70 u 80 grados. Y si cumple con especificaciones militares, quizás tengamos suerte y soporte hasta 150 grados. Pero claro, si quisiéramos enviar una misión a Venus y nuestro vehículo espacial dependiese de esos chips la pasaríamos mal, ya que la temperatura promedio de ese planeta es de 480 grados centígrados.

Para resolver este problema, los ingenieros de la prestigiosa agencia espacial de los EE.UU. han desarrollado un nuevo tipo de circuito integrado capaz de soportar temperaturas de hasta 600º sin fallar, lo que les permitirá enviar misiones no tripuladas a ese planeta que funcionen sin problemas.

Los chips emplean una substancia conocida como carburo de silicio (SiC) en lugar del silicio que tradicionalmente se utiliza en su construcción. Los primeros prototipos que han salido de la “cocina” de la NASA han sido capaces de funcionar más de 1700 horas seguidas a temperaturas por encima de los 500 grados sin fallar. Para que te des una idea, el estaño que se utiliza habitualmente para soldar los chips a las placas de circuito impreso se funde a la mitad de esa temperatura.

Este avance es impresionante, y puede cambiar toda la electrónica. Si su precio se vuelve accesible, podría utilizarse en todo tipo de entornos en los que existen fuentes de calor importantes, tales como maquinas industriales, aviones, y por qué no, microprocesadores que permitan un overclocking como nunca has soñado.


Nanoelectrónica dentro de células vivas

La continua miniaturización que impulsa a la industria de los semiconductores ha hecho posible la construcción de transistores con un tamaño de apenas unas decenas de nanómetros. Los investigadores han comenzado a explorar la forma de “conectar” la biología y la electrónica mediante la integración de componentes semiconductores con células vivas. Hace algún tiempo se logró la integración de células en materiales semiconductores, y ahora, los científicos del Instituto de Microelectrónica de Barcelona IMB-CNM (CSIC), han realizado un trabajo explotando la vía opuesta: integrando la nanoelectrónica en células vivas. El estudio de las células individuales es de gran importancia en la biomedicina, ya que muchos procesos biológicos tienen lugar en su interior y pueden diferir de célula a célula. El desarrollo de herramientas más pequeñas, capaces de “mirar” directamente la maquinaria celular sin destruirla, podría dar paso a una nueva forma de detectar de forma precoz las enfermedades y proporcionar nuevos mecanismos de reparación celular.

Una célula humana típica tiene un tamaño de alrededor de 10 micrómetros cuadrados. Esto significa que cientos de transistores pueden colocarse en el interior de una sola célula. Si el ritmo actual de miniaturización continúa, en 2020 podríamos encajar unos 2,500 transistores – el equivalente a los microprocesadores de la primera generación- en el interior de una célula viva típica. José Antonio Plaza, uno de los investigadores del Departamento de micro y nanosistemas del CSIC, dice que “los elementos microelectrónicos disponibles en la actualidad nos permiten fabricar complejas estructuras tridimensionales, como sensores y actuadores. Estos elementos, mucho más pequeños que las células, pueden ser producidos en masa con una precisión nanométrica a muy bajo costo.”

Plaza, junto con un equipo de colegas, ha demostrado que los chips de silicio se pueden introducir en las células vivas de diferentes maneras (por ejemplo, mediante lipofección, fagocitosis o microinyección) y, los más importante, una vez allí dentro pueden ser utilizados como sensores intracelulares. El equipo ha publicado sus conclusiones en un número reciente de Small, titulado "Intracellular Silicon Chips in Living Cells" ("Chips de silicio intracelulares en células vivas"), en el que dan cuenta como “los chips de silicio fabricados en la escala de las micro y nanopartículas, pueden ser utilizados como sensores intracelulares. Estos chips están hechos de un material semiconductor típico -silicio- y producidos mediante la más común de las tecnologías de fabricación industrial, el proceso de fotolitografía."

A lo largo de sus experimentos, el equipo español ha fabricado diferentes lotes de chips de silicio policristalino, unos pequeños paralelepípedos con dimensiones laterales de 1,5-3μm y un espesor de 0,5 micras, que se colocaron dentro de las células humanas vivas. Patricia Vázquez y Teresa Suárez, las biólogas del equipo, explican que “usamos la técnica de lipofección (la encapsulación de los materiales en una vesícula llamada liposoma) para introducir los chips.” Después de insertar los chips en las células vivas, encontraron que más del 90% de las células a las que se les habían implantado los sensores seguían “vivas y viables” siete días después de la lipofección. El equipo español prevé que "en el futuro cercano, los chips intracelulares permitirán -a nivel de células individuales y en vivo- el seguimiento de los eventos celulares, así como la administración de medicamentos de forma eficaz directamente dentro de las células. Lo que el equipo de Plaza ha hecho es sólo dar un primer paso hacia la integración del silicio dentro de las células. ¿Cómo van a interactuar en el futuro estos dispositivos con células vivas? “No lo sabemos con exatitud”, dice Plaza, “pero será algo nuevo y fascinante.”

viernes, 21 de mayo de 2010

A NEW ERA IN CARDIAC HEALTH DIAGNOSTICS WITH SILICON-BASED

A NEW ERA IN CARDIAC HEALTH DIAGNOSTICS WITH SILICON-BASED
INTEGRATED SYSTEM

1. Researchers at A*STAR’s Institute of Microelectronics (or IME) have developed a rapid and sensitive integrated system to test for specific cardiac biomarkers in blood. Compared to the conventional testing platform known as ELISA (Enzyme-linked Immunosorbent Assay), the new integrated system significantly cuts sample preparation and analysis time which typically requires 6 hours to just 45 minutes.

2. The new system has demonstrated promising multiplexing capability, meaning that the new system can measure several cardiac biomarkers simultaneously; thereby contributing to the detail and certainty of diagnosis. It is also less invasive since it uses just a finger prick amount of blood. In the event of a suspected heart attack, these new features could save precious minutes in helping doctors arrive at the right diagnosis for timely medical intervention, which would make a world of difference between life and death.

3. The potential healthcare implications of the promising research outcome has attracted the interest of Singapore National Heart Centre who, in working with IME, proposed the clinical problems and the ‘chokepoints’ for rapid point-of-care (POC) test for diagnosis of heart attacks.

4. On the future outlook for the IME-developed silicon-based integrated system, Dr Philip Wong, Senior Consultant of Singapore National Heart Centre said, “The key to saving lives in heart attack scenarios is time and the quicker and more accurate the diagnosis can be made, the faster proper care and treatment can be instituted. The test kits can be rapidly deployed, and tests to confirm clinical diagnosis can be completed within short time frames. As the kits are deployed on-site as opposed to a central laboratory, confirmation of condition is rapid without the need to transport patients’ specimens.” Silicon-based Integrated System: What is it and how does it work?

5. The IME-developed silicon-based integrated system is a label-free1 technology that uses semiconducting silicon nanowires (SiNWs) as biosensors. The working principle behind the nanowire biosensors is the field-effect transistor (refer to Figure 1 in ANNEX), which is responsible for generating a measurable electrical response when specific antibody-antigen interactions occur on the nanowire surface.

6. Cardiac protein biomarkers are substances that are released into the blood when the heart is injured. Specific antibodies that are immobilized onto the nanowire surface will elicit antibody- antigen interactions when allowed to come into contact with the variety of charged cardiac biomarkers. Such parallel detection of several biomarkers is made possible by the new microsystem that integrates the following elements into one single system:

• In-built filtration system to extract almost instantaneously the test serum from the whole blood sample.

• An array of SiNW chips coated with different antibodies for simultaneous detection of several biomarkers

• A recording microchip for concurrent and immediate signal-readout from multiple SiNW sensors

7. The first demonstration of the full system capability revealed impressive sensitivity and speed as the system is able to attain a low detection limit of 1 pg/ml for cardiac biomarkers, troponin-T and creatinine kinases, from 2 μl blood in just under 45 minutes. Commercially available test kits require more than 1 ng/ml of cardiac biomarkers in order for them to be detected, which is 1000 times less sensitive than the IME-developed system. The technology and processes used for the fabrication of this integrated device have also yielded two patents to date.

8. “IME’s proprietary nanotechnology behind the new silicon-based integrated system can be extended to other protein-based diagnostics from blood and saliva samples to provide fast, sensitive, accurate and portable solutions for protein-based disease screening,” said Professor Kwong Dim-Lee, Executive Director of IME.

Significance of Cardiac Biomarkers

9. Cardiac biomarkers, such as troponin-T and creatinine kinases are proteins used for heart attack diagnosis. Troponin and creatinine are constituents of the cardiac muscle cells that are released into the blood when the cells and tissues are injured after a heart attack. Hence elevated levels of troponin-T or creatinine kinases in the blood alert the doctors that a heart attack has taken place.

10. Troponin-T is established as a sensitive marker of myocardial injury in the general population. The troponin-T level in the blood increases within 4 to 6 hours after the onset of a heart attack and peaks at about 24 hours. This increase lasts for 10 to 14 days2.

11. Contrary to what a layman might assume, a heart attack is not straight forward to diagnose. Unlike what is often shown on television dramas, a heart attack may not present itself with the classical symptoms such as sudden chest pain and shortness of breath. Approximately one fourth of all heart attacks are atypical i.e. without showing obvious signs of chest pains or shortness of breath. To accurately diagnose an atypical heart attack would therefore require an experienced medical eye, detailed medical history as well as efficient, sensitive and accurate diagnostic tests.3

12. Today, the first test performed on a patient who is suspected of having a heart attack would be an electrocardiogram, commonly known as the ECG. Contrary to popular belief,the normal results from an ECG do not rule out the occurrence of a heart attack. This is because the ECG is not sensitive enough to detect minute anomalies in the reading, particularly when the anomaly needs to be captured within a narrow time window of 2 – 30 minutes following the onset of a heart attack. When an abnormal ECG reading cannot be established, the patient has to undergo further blood tests to detect the relevant cardiac biomarkers.3

13. ELISA, which is the current method for detecting cardiac biomarkers, uses fluorescent labelling technology. This biochemical technique is laborious and timeconsuming; the entire set-up requires specialized personnel and instruments to implement, thereby contributing to the per analysis cost. Hence, ELISA does not favour prompt diagnosis for critical split-second medical decisions.

About the Institute of Microelectronics (IME)

The Institute of Microelectronics (IME) is a research institute of the Science and Engineering Research Council of the Agency for Science, Technology and Research (A*STAR). Positioned to bridge the R&D between academia and industry, IME's mission is to add value to Singapore's semiconductor industry by developing strategic competencies, innovative technologies and intellectual property; enabling enterprises to be technologically competitive; and cultivating a technology talent pool to inject new knowledge to the industry. Its key research areas are in integrated circuits design, advanced packaging, bioelectronics and medical devices, MEMS, nanoelectronics, and photonics. For more information, visit IME on the Internet: http://www.ime.a-star.edu.sg/.

About the Agency for Science, Technology and Research (A*STAR)

The Agency for Science, Technology and Research (A*STAR) is the lead agency for fostering world-class scientific research and talent for a vibrant knowledge-based and innovation-driven Singapore. A*STAR oversees 14 biomedical sciences, and physical sciences and engineering research institutes, and seven consortia & centre, which are located in Biopolis and Fusionopolis, as well as their immediate vicinity. A*STAR supports Singapore's key economic clusters by providing intellectual, human and industrial capital to its partners in industry. It also supports extramural research in the universities, hospitals, research centres, and with other local and international partners.

Field-Effect Transistor In Nanowire Biosensor

Figure 1 : Schematic diagram of a field effect transistor biosensor used in the IME-developed integrated system to specifically detect for cardiac biomarkers


Note:
1 In classical biochemical methods, the tagging of a fluorescent dye to the targeted analyte is used as a means for detection and quantification of the targeted analyte. Label-free technology eliminates the tagging step, which saves time and reagent consumption costs.

2 M.H. Crawford, J.P. Dimarco and W.J. (ed.) in Cardiology, Elsevier Inc., 2009

3 American Heart Association, viewed 9 November, 2009,
http://www.americanheart.org/presenter.jhtml?identifier=4595.

jueves, 20 de mayo de 2010

Nanowires form nanoelectronic devices

Nanowires form nanoelectronic devices

Scientists from Lund University in Sweden have created one-dimensional heterostructure electronic devices based on nanowires. They made the resonant tunnelling diodes by bottom-up assembly of different III/V semiconductor materials.

"This is the first example of a one-dimensional nanoelectronic device that uses the possibility of creating ultra-sharp heterostructures inside nanowires," Lars Samuelson of Lund University told nanotechweb.org. "If you compare it with what has been produced previously with top-down fabrication techniques, the quality of our devices - made via a bottom-up technique - is highly superior."

To assemble the devices, the researchers used a vapour-liquid-solid growth process, seeding the nanowires onto gold aerosol particles. They used indium arsenide (InAs) for the emitter, collector and dot regions of the device, and indium phosphide (InP) as the barrier material. To swap the materials, they switched off the group III source beam to stop growth, and then changed the group V source. The resulting nanowires were 40-50 nm in diameter.

In this way, the scientists created a double-barrier resonant tunnelling device consisting of two roughly 5 nm thick InP barriers on either side of a 15 nm thick InAs quantum dot. Below a bias of about 70 mV, the device showed no current. At a bias of roughly 80 mV, however, the current-voltage plot exhibited a sharp peak. According to Samuelson, the peak-to-valley ratio was about 50:1, which is more than an order of magnitude better than the values achieved by devices made using conventional techniques.

"The bottom-up method will allow the parallel creation of thousands or millions of identical advanced heterostructure devices, each resulting from the location of the catalytic gold nanoparticles," added Samuelson. "We have previously shown that we can control not only the size but also the location of individual nanowires."

Now, Samuelson says the team aims to make devices that include not just a double-barrier structure, but a triple-barrier, quadruple-barrier, or even "one-dimensional superlattices of quantum dots". "It will be extremely nice to use this technique to create photonic devices such as single quantum dot light-emitting diodes and quantum cascade lasers," he said

Nano Electronics Researcher Decodes Radio Signals Using Atom-Sized Component

Nano Electronics Researcher Decodes Radio Signals Using Atom-Sized Component

A scientist has unveiled a working radio built from carbon nanotubes that are only a few atoms across, or almost 1,000 times smaller than today's radio technology.

The nanotech device is a demodulator, a simple circuit that decodes radio waves and turns them into audio signals. By hooking the decoder up to two metal wires, University of California at Irvine professor Peter Burke transmitted music via AM radio waves from an iPod to speakers across the room.

"People have been working on nanoelectronics for many years, and there have been advances at the device level on switches and wires," said Burke, who reported his findings in the November 14 issue of the American Chemical Society's Nano Letters. "This work takes a step towards showing nanoelectronics in systems."

The process centers on working with tiny tubes of carbon only discovered in the 1980s. They are sometimes called buckytubes, after the noted inventor Buckminster Fuller.

Nanoelectronic systems are considered crucial to the continued miniaturization of electronic devices. Many companies are interested in the long-term potential of the technology. Nanomix has received over $15 million in venture capital to commercialize various nanoelectronic devices from Okapi Venture Capital. The company intends to commercialize carbon nanotubes that will work with standard semiconductor technologies.

Burke's system is not wholly constructed of nanomaterials. Aside from the demodulator, the rest of the radio setup was off-the-shelf. But the nanocomponent is a crucial step in developing a fully nano-sized radio.

"Though we have only demonstrated the critical component of the entire radio system out of a nanotube (the demodulator), it is conceivable in the future that all components could be nanoscale, thus allowing a truly nanoscale wireless communications system," Burke wrote in the paper.

François Baneyx, director of the Center for Nanotechnology at the University of Washington, said nanotubes have attracted a lot of attention because of unique electrical properties that arise at the atomic scale.

"They can behave as a semiconductor or metallic system and they have a very high physical strength," he said. "Researchers are actively working on a large number of nanotechnology applications. In nanoelectronics the focus is on the unique properties that arise at the nanoscale. They are looking to take advantage of the electronic properties of the nanotubes." Video on the talk in this article is at this link(http://link.brightcove.com/services/player/bcpid1815813330?bclid=0&bctid=12084665001).

While the potential for nanoelectronics is big, major manufacturing problems remain. When scientists are working at the atomic scale, imperfections of a couple of atoms have drastic repercussions.

"If one atom is out of place in a regular transistor, it's not a big deal," Burke said. "If one atom is out of place in the nanotube, it has a big impact on the electronic properties."

That impact means that it is nearly impossible to make identical components time and again, an obvious necessity for commercial production.

"The cost and manufacturability are the big unsolved issues in nanotechnology," Burke said.

Burke's team is also looking at the interfaces between biological systems and nanotechnologies. He sees opportunities in manipulating human proteins, since they are about the same size as the nanoelectronics.

http://www.wired.com/science/discoveries/news/2007/10/nano_radio#

miércoles, 19 de mayo de 2010

Moore says nanoelectronics face tough challenges

SAN FRANCISCO--Although many believe the future of the computing industry lies with building chips out of carbon nanotubes or other novel materials, Intel co-founder Gordon Moore predicts it won't be easy to replace silicon. "I will admit to being a skeptic to these things for replacing digital silicon," he told a gathering of reporters here Wednesday, where he also discussed artificial intelligence, Intel's future, and the early days of Silicon Valley. "We've got a cumulative couple of hundred billion dollars invested in R&D."


Although he retired several years ago, Moore will be a very visible figure during the next few months. April 19 will mark the 40th anniversary of an article he wrote for Electronics Magazine that first sketched out the idea of Moore's Law. The observation, which predicts that engineers can double the number of transistors on a chip every 24 months, has been the fundamental principle of the computing industry and paved the way for making computers and cell phones that are cheaper, faster and more powerful.

"It was a chance to look at what happened up to that time," he said of the original article. "I didn't think it would be especially accurate."

While he says he isn't up on the latest technological nuances, his skepticism about novel materials replacing silicon derives from practicality. Modern-day microprocessors contain hundreds of millions of transistors, and soon will have billions, and, to break even, manufacturers have to pop out millions of these complex devices. Although researchers have been able to produce individual nanotube transistors, the ability to mass produce hasn't been shown.

Still, continuing to produce chips on silicon has its problems too. Designers have been able to put more transistors on chips for decades by shrinking the size of the transistors, but they are now at the point where some structures inside chips are only a few atoms thick.

"Any material made of atoms has a fundamental limit," Moore said. The solution? Make the chips bigger. Carbon nanotubes, he added, wouldn't be completely left out. They could be used to replace the metal interconnects between the transistors.

Rereading the article 40 years later yielded some surprises, he admitted. For one thing, he noticed that he predicted home computers.

"I also talked about electronic watches. Unfortunately, Intel tried that once," he laughed, referring to the company's failed foray into wristwatches years ago.

Moore also made it clear that computer scientist Carver Mead dubbed the observation Moore's Law, a lofty label that took him about 20 years to get used to.

Among other topics Moore discussed:

• He gave his approval to Intel's approach to building platforms, rather than individual chips. "The recent reorganization of Intel is to an extent a reflection of how (incoming CEO) Paul Otellini wants to work in the future. I think it is a very appropriate change," he said. "Paul is different in that he is the first CEO of Intel that isn't a Ph.D. or scientist, but he is more technical than I am at this stage in the game."

• William Shockley, who invented the transistor, helped foster the Silicon Valley by driving Moore, Intel co-founder Robert Noyce, Eugene Kleiner and the rest of the "traitorous eight" up the wall at Shockley Semiconductor.

"He was a brilliant physicist, but he had very peculiar ideas about working with people," he said. "We got along reasonably well because I was a chemist, so he didn't feel that he had to know everything I did."

The eight engineers went to the company's financial backers to take Shockley out of active management. At the last minute, the backers refused. Kleiner's father knew an investment banker named Arthur Rock, who then helped form Fairchild Semiconductor.

"Fairchild was developing technology faster than it could be exploited," Moore recalled. They also were mired in a management mess, so Moore and Noyce left to found Intel while others went on to start other companies.

• Computers, as they are built now, will never think like humans. "Human intelligence in my view is something that is done in a dramatically different fashion than Von Neumann computers," he said. The brain processes "in a highly parallel and relatively sloppy" fashion, but one well-suited for its purpose.

• China is going to be a major fact of life for the United States. "The impact of China is just beginning to be felt. China is producing 10 times as many engineers as we are," he said. "Silicon Valley is still a great place to start a company, but it so expensive, especially the housing."

• Progress in the industry may also slow to the point where the number of transistors on a chip, which let designers increase performance and/or integrate new capabilities, double only every three to four years. Still, the industry has always blown past barriers in the past.

He also noted that some of the analogies from Moore's Law are a bit farfetched. Once, he extrapolated that if the car industry followed the same rules of progress, cars would get 100,000 miles per gallon, travel at millions of miles per hour and be so cheap that it would cost less to buy a Rolls-Royce than park it downtown for a day.

And as a friend pointed out, Moore said, "it would only be a half-inch long and a quarter-inch high."

The NSF-GRC Research Program: Silicon Nanoelectronics and Beyond (SNB)

The NSF-GRC Research Program: Silicon Nanoelectronics and Beyond (SNB)


The scientific and technological challenges that must be overcome to reach the limits of scaling for CMOS integrated circuits are formidable. Informed estimates are that investments in fundamental research in the United States need to be increased by roughly one order of magnitude to sustain the current rate of progress toward ultimate scaling limits. Early in 2004, the National Science Foundation (NSF) and the Semiconductor Research Corporation (SRC) sought to partially address this shortfall by developing a formal agreement to cooperate in the conduct of research to not only address the ultimate limits of CMOS but to also look beyond CMOS to information technologies of the future.

As part of the National Nanotechnology Initiative (NNI), in 2004 and 2005, NSF conducted a cross-division initiative entitled Nanoscale Science and Engineering (NSE) that emphasized cross-disciplinary research in a broad array of themes for nanotechnology research. Several classes of programs were defined for NSE including Nano-Science and Engineering Centers (NSEC’s), Nano-Interdisciplinary Research Teams (NIRT’s), and Nano-Exploratory Research (NER’s) to fund research in the defined themes. The Memorandum of Understanding developed between NSF and SRC provided mechanisms for cooperation in the NSE program by SRC in a manner that is not invasive to NSF policies and procedures. The elements of the agreement are:

•GRC is to provide input to NSF for possible use in the NSE solicitation that outlines research challenges in Silicon Nanoelectronics and Beyond
•GRC provides a contact list of suggested industry expert reviewers who agree to serve on proposal selection panels if requested to do so by NSF Program Managers
•GRC agrees to review the selected awards, to contact the recipients, deemed to be conducting research relevant to the SNB theme, and offer the opportunity to awardees for voluntary participation in GRC technology transfer processes, i.e.
◦GRC will provide mechanisms to list the NSE project and subsequent outcomes in its database for easy access by GRC industry members
◦GRC will offer to identify industry ‘friends of the research’ (called Industrial Liaisons in GRC vernacular) to aid the faculty and students in the conduct of their research
◦GRC will offer the opportunity for NSE-awarded faculty to participate in GRC thematic reviews to obtain broad industry feedback on their projects
◦GRC maintains the option to co-fund NSE projects if desired
•Program oversight is maintained by the SNB Guidance Committee consisting of the SRC Office of the Chief Executive and senior NSF Managers

To date, over $20M in annual research conducted under the auspices of the NSE program has been identified by GRC as relevant to the SNB theme and these faculty have been offered the opportunity to engage with GRC along the lines outlined above. The NSE 2006 program has been reduced in scope, involves only the Engineering Division, and has been re-named Active Nanostructures and Nanosystems (ANN). The solicitation for ANN was posted June 7, 2006. However, there is an opportunity at this time to broaden the scope of the SNB program to include the core NSF programs. Discussions on how this might be done are underway with the National Science Foundation.