Redes de sensores sin cables:
Las redes de sensores están formadas por un grupo de sensores con ciertas capacidades sensitivas y de comunicación inalámbrica los cuales permiten formar redes ad hoc sin infraestructura física preestablecida ni administración central.
Pasando de largo las aplicaciones militares, éstas tienen usos civiles interesantes como vemos a continuación:
- Eficiencia energética: Red de sensores se utilizan para controlar el uso eficaz de la electricidad, como el caso de Japón y España.
- Entornos de alta seguridad: Existen lugares que requieren altos niveles de seguridad para evitar ataques terroristas, tales como centrales nucleares, aeropuertos, edificios del gobierno de paso restringido. Aquí gracias a una red de sensores se pueden detectar situaciones que con una simple cámara sería imposible.
- Sensores ambientales: El control ambiental de vastas áreas de bosque o de océano, sería imposible sin las redes de sensores. El control de múltiples variables, como temperatura, humedad, fuego, actividad sísmica así como otras. También ayudan a expertos a diagnosticar o prevenir un problema o urgencia y además minimiza el impacto ambiental del presencia humana.
- Sensores industriales: Dentro de fábricas existen complejos sistemas de control de calidad, el tamaño de estos sensores les permite estar allí donde se requiera.
- Automoción: Las redes de sensores son el complemento ideal a las cámaras de tráfico, ya que pueden informar de la situación del tráfico en ángulos muertos que no cubren las cámaras y también pueden informar a conductores de la situación, en caso de atasco o accidente, con lo que estos tienen capacidad de reacción para tomar rutas alternativas.
- Medicina: Es otro campo bastante prometedor. Con la reducción de tamaño que están sufriendo los nodos sensores, la calidad de vida de pacientes que tengan que tener controlada sus constantes vitales (pulsaciones, presión, nivel de azúcar en sangre, etc.), podrá mejorar sustancialmente.
- Domótica: Su tamaño, economía y velocidad de despliegue, lo hacen una tecnología ideal para domotizar el hogar a un precio asequible.
Es imaginable que los nodos no sólo puedan observar sino también reaccionar para activar funciones de otros sistemas.
2) Ingeniería inyectable de tejidos
Una de las tecnologías revolucionarias que cambiara el panorama en la Nanotecnología. Es así que la Ingeniería inyectable de tejidos (Inyectable Tissue Engineering). Surgió ya, como producto de extensas investigaciones y desarrollo de biotecnologías aplicadas para una opción sustitutoria a los Trasplantes tradicionales de órganos, se inicia la aplicación de un método innovador que consiste en inyectar articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos a saltar la gran barrera de rechazos de tejidos como se ha tenido en los trasplantes por métodos clásicos hasta ahora.
3) Nano-células solares
Nano-células solares (Nano Solar Cells). Puede ser que el sol sea la única fuente con suficiente capacidad para hacer que no seamos dependientes de combustibles fósiles. No obstante, atrapar la energía solar requiere capas siliconas que aumentan los costes hasta 10 veces el coste de la generación de energía tradicional. A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con otros materiales de la construcción, sino que ofrece la promesa de costes de producción baratos que permitirán que la energía solar se convierta en una alternativa barata y factible.
4) Mecatrónica
4) Mecatrónica
La Ingeniería Mecatrónica es una sinergia que une la ingeniería mecánica, ingeniería electrónica, ingeniería de control e ingeniería informática; la cual busca crear maquinaria más compleja para facilitar las actividades del ser humano a través de procesos electrónicos en la industria mecánica principalmente.
Tiene la capacidad de seleccionar los mejores métodos y tecnologías para diseñar y desarrollar de forma integral un producto o proceso, haciéndolo más compacto, de menor costo, con valor agregado en su funcionalidad, calidad y desempeño. Su enfoque principal es la automatización industrial, la innovación en el diseño y la construcción de dispositivos y máquinas inteligentes.ingeniero Mecatrónico se capacita para:
→Diseñar, construir e implementar productos y sistemas mecatrónicos para satisfacer necesidades emergentes, bajo el compromiso ético de su impacto económico, social, ambiental y político.
→Generar soluciones basadas en la creatividad, innovación y mejora continua de sistemas de control y automatización de procesos industriales.
→Apoyar a la competitividad de las empresas a través de la automatización de procesos.
→Evaluar, seleccionar e integrar dispositivos y máquinas mecatrónicas, tales como robots, tornos de control numérico, controladores lógicos programables, computadoras industriales, entre otros, para el mejoramiento de procesos industriales de manufactura.
→Dirigir equipos de trabajo multidisciplinario.
Campos de acción
- Automatización y robótica
- Servomecanismos
- Sensores y sistemas de control
- Ingeniería automotriz
- Ingeniería aeroespacial
- Domótica
- Controles computador-máquina
- Bienes industriales
- Productos de consumo
- Sistemas mecatrónicos
- Ingeniería biomédica
- Sistemas dinámicos estructurales
- Sistemas vehiculares y de transporte
- Técnicas de diagnostico, fiabilidad y control
- Diseño asistido por computadora
- Fabricación asistida por computadora
- Sistemas de manufactura
5) Sistemas informáticos Grid
es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una revolución que dará mucho que hablar.
El término grid se refiere a una infraestructura que permite la integración y el uso colectivo de ordenadores de alto rendimiento, redes y bases de datos que son propiedad y están administrados por diferentes instituciones. Puesto que la colaboración entre instituciones envuelve un intercambio de datos, o de tiempo de computación, el propósito del grid es facilitar la integración de recursos computacionales. Universidades, laboratorios de investigación o empresas se asocian para formar grid para lo cual utilizan algún tipo de software que implemente este concepto.
El término grid se refiere a una infraestructura que permite la integración y el uso colectivo de ordenadores de alto rendimiento, redes y bases de datos que son propiedad y están administrados por diferentes instituciones. Puesto que la colaboración entre instituciones envuelve un intercambio de datos, o de tiempo de computación, el propósito del grid es facilitar la integración de recursos computacionales. Universidades, laboratorios de investigación o empresas se asocian para formar grid para lo cual utilizan algún tipo de software que implemente este concepto.
Llamamos grid al sistema de computación distribuido que permite compartir recursos no centrados geográficamente para resolver problemas de gran escala. Los recursos compartidos pueden ser ordenadores (PC, estaciones de trabajo, supercomputadoras, PDA, portátiles, móviles, etc), software, datos e información, instrumentos especiales (radio, telescopios, etc.) o personas/colaboradores.
La computación grid ofrece muchas ventajas frente a otras tecnologías alternativas. La potencia que ofrecen multitud de computadores conectados en red usando grid es prácticamente ilimitada, además de que ofrece una perfecta integración de sistemas y dispositivos heterogéneos, por lo que las conexiones entre diferentes máquinas no generarán ningún problema. Se trata de una solución altamente escalable, potente y flexible, ya que evitarán problemas de falta de recursos (cuellos de botella) y nunca queda obsoleta, debido a la posibilidad de modificar el número y características de sus componentes.
Estos recursos se distribuyen en la red de forma transparente pero guardando unas pautas de seguridad y políticas de gestión de carácter tanto técnico como económico. Así pues, su objetivo será el de compartir una serie de recursos en la red de manera uniforme, segura, transparente, eficiente y fiable, ofreciendo un único punto de acceso a un conjunto de recursos distribuidos geográficamente en diferentes dominios de administración. Esto nos puede llevar a pensar que la computación Grid permite la creación de empresas virtuales. Es importante saber que una grid es un conjunto de maquinas distribuidas que ayudan a mejorar el trabajo sobre software pesados.
La computación grid ofrece muchas ventajas frente a otras tecnologías alternativas. La potencia que ofrecen multitud de computadores conectados en red usando grid es prácticamente ilimitada, además de que ofrece una perfecta integración de sistemas y dispositivos heterogéneos, por lo que las conexiones entre diferentes máquinas no generarán ningún problema. Se trata de una solución altamente escalable, potente y flexible, ya que evitarán problemas de falta de recursos (cuellos de botella) y nunca queda obsoleta, debido a la posibilidad de modificar el número y características de sus componentes.
Estos recursos se distribuyen en la red de forma transparente pero guardando unas pautas de seguridad y políticas de gestión de carácter tanto técnico como económico. Así pues, su objetivo será el de compartir una serie de recursos en la red de manera uniforme, segura, transparente, eficiente y fiable, ofreciendo un único punto de acceso a un conjunto de recursos distribuidos geográficamente en diferentes dominios de administración. Esto nos puede llevar a pensar que la computación Grid permite la creación de empresas virtuales. Es importante saber que una grid es un conjunto de maquinas distribuidas que ayudan a mejorar el trabajo sobre software pesados.
6) Las Imágenes Moleculares. Son la formación de imágenes a nivel molecular que se origina del campo de la radio-farmacología debido a la necesidad de un mejor entendimiento de los caminos (o trayectorias) moleculares fundamentales en los organismos de una manera no invasiva.
Modalidades de Formación de Imágenes
· Imagen por Resonancia Magnética
· Imagen Óptica
· Tomografía Computarizada por Emisión de Fotones Individuales
· Tomografía por Emisión de Positrones
· Ultrasonido
7) Litografía Nano-impresión
La nano litografía o litografía a la escala del nanómetro, se refiere a la fabricación de micro estructuras con un tamaño de escala que ronda los nanómetros. Esto implica la existencia de patrones litografiados en los que, al menos, una de sus dimensiones longitudinales es del tamaño de átomos individuales y aproximadamente del orden de 10 nm. La nanolitografía se usa durante la fabricación de circuitos integrados de semiconductores o sistemas nanos electromecánicos, conocidos como Nanoelectromechanical Systems o NEMS.
Litografía óptica
La litografía óptica, que ha sido la técnica predominante en el uso de patrones desde el comienzo de la era de los semiconductores, es capaz de producir patrones ligeramente por debajo de los 100 nm, usando longitudes de onda muy cortas (unos 193 nm de manera usual). Este tipo de litografía requiere el uso de inmersión líquida y una multitud de mejoras en la tecnología de foto máscara (tecnología PSM) además de corrección óptica por proximidad (Optical Proximity Correction o OPC) para llegar a detalles del orden de 32 nm. Existe un sentimiento general, entre los expertos, en el que se afirma que bajar a unos niveles de 30 nm mediante la litografía óptica, no será comercialmente viable. En este punto, esta técnica deberá ser reemplazada por una nueva generación de litografía (Next Generation Lithography o NGL).Otras técnicas nano-litográficas
- La más corriente de las técnicas nano litográficas es la litografía de escritura directa por haces de electrones (Electrón Beam Direct Write lithography o EBDW). En esta técnica, el uso de un haz de electrones imprime un patrón, usualmente sobre una resina de polímero que se opone tal como PMMA.
- Litografía del ultravioleta extremo (Extreme Ultraviolet lithography o EUV) es una variedad de litografía óptica que usa longitudes de onda muy corta, del orden de 13,5 nm. Es la que se denomina normalmente como técnica NGL
- Litografía por partículas cargadas, tales como litografías por iones o proyecciones de electrones (PREVAIL, SCALPEL, LEEPL). Estas técnicas son capaces de producir patrones de muy alta resolución.
- Litografía de nano impresión (Nanoimprint Lithography o NIL) y sus variantes, tales como la litografía de impresión por pasos como LISA y LADI. Estas técnicas son tecnologías de replicación de patrones muy prometedoras. Pueden combinares con la impresión por contacto
- Litografía de escaneo por sonda (Scanning Probe Lithographies o SPL) parece ser una prometedora herramienta para la producción de patrones en la escala de los nanómetros. Por ejemplo, los átomos individuales se pueden manipular usando la punta de un microscopio de efecto túnel (Scanning Tunneling Microscope o STM). La nano litografía de descenso de sonda es la primera tecnología comercial de tipo SPL disponible basada en el microscopio de fuerza atómica.
- El desarrollo más evolucionado de la NGL continúa con la litografía de rayos X, que puede llegar a extenderse a resoluciones de 15 nm por el uso de una reducción de campo cercano.
8)Software seguro y fiable (Software Assurance). Los ordenadores se averían - es un hecho ya contrastado por la experiencia diaria. Y cuando lo hacen, suele ser por un virus informático. Cuando se trata de un sistema como control aéreo o equipos médicos, el coste de un virus pueden ser vidas humanas. Para evitar tales escenarios, se investigan herramientas que produzcan software sin errores. Trabajando conjuntamente en MIT, investigadores Lynch y Garland han desarrollado un lenguaje informático y herramientas de programación para poder poner a prueba modelos de software antes de elaborarlo.
9)Glucomicas
Un campo de investigación que pretende comprender y controlar los miles de tipos de azúcares fabricados por el cuerpo humano para diseñar medicinas que tendrán un impacto sobre problemas de salud relevantes. Desde la artrosis reumática hasta la extensión del cáncer. Investigadores estiman que una persona está compuesta por hasta 40.000 genes, y que cada gen contiene varias proteínas. Los azúcares modifican muchas de estas proteínas, formando una estructura de ramas, cada una con una función única.
10) Criptografía Quantum
La criptografía es la disciplina que trata de la transmisión y almacenamiento de datos de manera que no puedan ser comprendidos ni modificados por terceros. Los diferentes métodos de criptografía actualmente utilizados necesitan que dos personas que deseen comunicar información intercambien de forma segura una o más claves; una vez que las claves han sido intercambiadas, los interlocutores pueden transferir información con un nivel de seguridad conocido. Pero esta forma de trabajar basa la seguridad de las transmisiones exclusivamente en la seguridad en el intercambio de claves. La forma más segura de realizar este intercambio de claves es de manera presencial, pero ello no es posible en la mayoría de los casos, dado el múltiple número de interlocutores con los que se desea intercambiar información confidencial (bancos, tiendas en Internet, colegas de trabajo en sedes distantes, etc.). De manera que el punto donde hay menor seguridad en el intercambio de información confidencial está en el proceso de intercambio y transmisión de las claves.
El mundo funciona con muchos secretos, materiales altamente confidenciales. Entidades como gobiernos, empresas y individuos no sabrían funcionar sin estos secretos altamente protegidos. Nicolás Gisin de la Universidad de Génova dirige un movimiento tecnológico que podrá fortalecer la seguridad de comunicaciones electrónicas. La herramienta de Gisin (quantum cryptography), depende de la física cuántica aplicada a dimensiones atómicas y puede transmitir información de tal forma que cualquier intento de descifrar o escuchar será detectado.
Esto es especialmente relevante en un mundo donde cada vez más se utiliza el Internet para gestionar temas. Según Gisin, "comercio electrónico y gobierno electrónico solo serán posibles si la comunicación cuántica existe". En otras palabras, el futuro tecnológico depende en gran medida de la "ciencia de los secretos".
Esto es especialmente relevante en un mundo donde cada vez más se utiliza el Internet para gestionar temas. Según Gisin, "comercio electrónico y gobierno electrónico solo serán posibles si la comunicación cuántica existe". En otras palabras, el futuro tecnológico depende en gran medida de la "ciencia de los secretos".
No hay comentarios:
Publicar un comentario