jueves, 19 de noviembre de 2009

Control de movimientos mediante estimulación eléctrica


Un novedoso sistema diseñado para traducir las señales del cerebro en movimientos musculares complejos en tiempo real ha sido presentado en el congreso de la Sociedad de Neurociencia en Chicago. El sistema podría permitir que las personas con daños en la espina dorsal controlen sus propios miembros. Según Krishna Shenoy, neurocientífica de la Universidad de Stanford es un gran avance y supone la primera demostración de un sistema de estimulación eléctrica controlada corticalmente realizando una tarea que finalmente será de utilidad para un paciente humano.

Aunque los daños en la espina dorsal evitan que las señales eléctricas del cerebro lleguen a los músculos, las personas con parálisis por estos daños a menudo tienen intactos los nervios y músculos de sus miembros. Una técnica llamada estimulación eléctrica funcional (FES), en la que unos electrodos implantados aplican una corriente eléctrica para provocar contracciones musculares, ofrece un modo de volver a establecer esta conexión.

Los dispositivos capaces de restaurar la función manual y el control de la vejiga a algunos pacientes con parálisis ya han sido aprobados por la FDA (Food and Drug Administration) en EEUU. Los pacientes utilizan movimientos musculares residuales para controlar conscientemente estos sistemas; un sistema que funciona bien para algunas aplicaciones pero limita la complejidad del movimiento que se puede realizar. Por ejemplo, un dispositivo FES permite a las personas encoger un hombro para activar un movimiento más atrevido con la mano, pero no tienen el suficiente control como para asir objetos.

Ahora, combinando la tecnología FES con implantes cerebrales, los científicos están intentando crear un sistema más intuitivo para controlar los miembros paralizados, de forma que el pensamiento de mover un brazo o asir algo con la mano se traduzca automáticamente en el patrón de actividad eléctrica necesario para realizar ese movimiento. "Es mucho más natural, y si podemos descifrar la actividad en los músculos suficientes, podríamos mover múltiples articulaciones simultáneamente", señala Robert Kirsch, neurocientífico de la Universidad de Case Western Reserve, en Cleveland, Ohio. Un movimiento normal del brazo y la mano implica un movimiento fluido de múltiples articulaciones,.

Christian Ethier, investigador en el laboratorio del neurocientífico Lee Miller, en la Universidad de Northwestern, en Chicago, ha demostrado los primeros pasos hacia esta clase de sistema en monos. Los investigadores dieron a cada mono un anestésico local para bloquear temporalmente la función de los nervios de los flexores en sus brazos. Los animales tenían cables implantados en sus brazos para administrar estímulos eléctricos a los músculos, como harían los nervios, y una fila de electrodos implantada en el cerebro para registrar la actividad eléctrica de la corteza motora.

Primero se entrenó a los monos para asir una bola y ponerla en un agujero a cambio de un premio. Utilizando la actividad cerebral grabada durante esta tarea, los científicos desarrollaron algoritmos especializados de descifrado que traducirían la actividad cerebral relacionada con el movimiento de los diferentes músculos en un estímulo eléctrico para cada uno de los cinco músculos flexores del brazo en tiempo real, permitiendo al mono realizar la tarea. "Podemos predecir qué está intentando hacer el mono con sus músculos y estimular los músculos en función de eso, dando al mono control voluntario a través del ordenador en lugar de sus nervios", señala Miller.

Por lo general, con el brazo paralizado, los animales tuvieron dificultades para completar la tarea, consiguiendo meter la bola en su destino únicamente el 10% d ellas veces, en comparación con el 100% que mostraron antes del bloqueo de los nervios. La activación del sistema FES aumentó la tasa de éxito en los animales paralizados hasta un 77%. Los investigadores mostraron también que podían lograr que el mono moviera la muñeca en distintas direcciones; ahora quieren ver si pueden repetir los resultados con los músculos que controlan el alcance.

Las pruebas con humanos podrían no estar lejos. Los implantes corticales ya se han probado en pacientes humanos. Kirsch y Miller todavía no han establecido un cronograma específico para combinar ambos sistemas –los implantes corticales y los FES– en humanos, pero según Miller, sería técnicamente viable en un año. No obstante, quieren esperar hasta que los científicos hayan desarrollado una versión inalámbrica totalmente implantable del implante cortical, actualmente en desarrollo en la Universidad de Brown. Los implantes actuales tienen cables que sobresalen, lo que aumenta el riesgo de infección y limita la movilidad de los pacientes.

Las investigaciones previas han mostrado que los pacientes con estos implantes pueden controlar un cursor de ordenador y hacer algunos movimientos con un brazo robótico. Aunque esta investigación es especialmente interesante para las personas con miembros amputados, la nueva investigación se puede aplicar también a pacientes con daños en la espina dorsal.


por: Andres Enrique Quintero Santander

jueves, 12 de noviembre de 2009

EL AUTO INTELIGENTE

El Toyota Sportivo presentado la semana pasada por la empresa japonesa generó tantas polémicas como admiración. El automóvil incluye un novedoso sistema que reconoce a su conductor a través de una tarjeta personalizada. El sistema permitiría, además de ajustar asientos, radios y espejos según los gustos de quien se encuentre al volante, ponerle límites en cuanto a la velocidad que conduce, e incluso negarse a arrancar si los antecedentes en la tarjeta no son lo suficientemente confiables. De esta forma, la tarjeta no sólo funcionaría como llave para arrancar el auto, sino que además cumpliría las veces de registro de conducir. Pero esto no es todo, el proyecto implica además la unificación de la tarjeta inteligente y el número de patente, para que de esta forma ambos números se conviertan en uno solo, que identifique la persona que maneja en ese momento y no al dueño del auto.

Para ello, incorpora una pantalla en el paragolpe a modo de patente que reproduce el número de la tarjeta electrónica. Esto haría que las multas no recaigan sobre el dueño del vehículo, sino sobre quien lo estaba usando en ese momento. "En última instancia no es el titular el que es responsable del automóvil cuando está en la calle. Si el automóvil es detenido por exceso de velocidad, la multa se le hace al conductor, no al propietario", señala Paul Beranger, gerente de proyectos de Toyota. De esta forma, las licencias podrían ser similares a las que poseen los pilotos aeronáuticos, que varían según sus horas de vuelo, y restringir la potencia del motor en casos de conductores más inexpertos e incluso imposibilitar la circulación de aquellas personas que por una u otra razón hayan sido sancionadas.

por: Moises Caceres

casas inteligentes


Abrir o cerrar sus cortinas, prender o apagar luces, ver quien entra o sale de una habitación, vigilar como cuida la niñera a sus hijos aunque esté de viaje…Esto y más está a su alcance gracias a la domótica.

La tecnología aplicada al hogar -domótica- permite hoy en día satisfacer las necesidades básicas de seguridad, comunicación, gestión energética y confort del hombre y de su entorno más cercano: su hogar. Esto se logra aplicando un software y de un hardware especializado que permite tener el control de la casa desde cualquier parte del mundo.

Las casas inteligentes además ahorran energía. Trabajan con un cerebro que es el que manda las instrucciones a cada área para que realice según la programación que se le haya asignado. Se programa para que sea capaz de llenar las necesidades y satisfacer una amplia gama de placeres personales: aumentar o disminuir la intensidad de la luz, calentar, enfriar, difundir la música, abrir y cerrar las persianas, entre otros.
Los sistemas inteligentes mantienen un diálogo a distancia, mediante el computador, el teléfono fijo, la PDA o el teléfono celular.
Ahora cuando se piensa en automatizar una casa y convertirla en una vivienda inteligente se deben formular las siguientes preguntas:

1.¿Es una residencia nueva o existente? Esto irá directamente ligado al costo de instalación.
2.¿Qué tipo de control automático quiere tener y con qué tipo de acceso?
3.¿Quiere tener un control de acceso a la residencia o facilidad por medio de tarjeta, teclado numérico, control biométrico o cuál?
4.¿Busca ahorrar energía, en qué áreas?
5.¿Quiere controlar el sistema de iluminación, habrá control de escenarios, se controlará la intensidad de iluminación?
6.¿Quiere controlar los distintos dispositivos que se encuentran en la residencia, cuáles y cuántos son?
7.¿Quiere tener un sistema de detección de incendios, quiere control de extinción?
8.¿Habrá control del aire acondicionado?
La automatización de la casa, depende de las necesidades de quienes la habitan y también del presupuesto con que se cuenta. El mercado ofrece varios sistemas en algunas áreas como las ventanas, sonido e iluminación, seguridad y electrodomésticos.

Recomendaciones básicas:

◦Trabaje con una empresa que demuestre experiencia, certificada por el fabricante, que lo respalde con garantía en caso de cualquier imprevisto.
◦La empresa que coloca estos sistemas en su casa debe entrenar al usuario, para poder obtener lo mejor del sistema.
◦Siempre guarde los manuales, son de gran ayuda en caso de tener dudas.
◦El mantenimiento debe hacerse cada tres meses
edwin giovanny dulcey leòn 11-02

viernes, 6 de noviembre de 2009

HOLOGRAMAS SENCIBLES AL TACTO



Los avances tecnológicos nos sorprenden cada vez más… en esta ocasión parecen darle la razón a la frase “la ficción supera la realidad”. Esto se aplica a uno de los últimos logros de la ciencia japonesa, que están a un paso de conseguir que los hologramas puedan ser sensibles al tacto.


Los hologramas son imágenes tridimensionales que se usan en tarjetas de crédito, DVD y discos compactos para evitar la falsificación. Los de mayor tamaño han sido utilizados también en la industria del entretenimiento.


Hiroyuki Shinoda, profesor en la Universidad de Tokio y uno de los desarrolladores de esta espectacular tecnología ha dicho que “Hasta ahora, la holografía era sólo para los ojos, y si intentabas tocarla, la mano la atravesaba, pero ahora tenemos una tecnología que también añade la sensación de tocar los hologramas”.


Esta tecnología utiliza ondas ultrasónicas, las cuales funcionan bajo un software que crea presión cuando la mano de alguien toca un holograma.


Los controles de la consola Nintendo Wii son usados para rastrear la mano de la persona, cubriendo la zona de proyección del holograma.


Por el momento esta tecnología ha sido probada con pequeños objetos, pero los investigadores quieren ir más allá, creando por ejemplo, interruptores virtuales para hospitales y otros lugares donde se pueda evitar la contaminación por contacto. Hiroyuki Shinoda también ha dicho que esta tecnología podría ser usada para sustituir otros objetos físicos, haciéndola económica y ecológica


por: Diego Ivan Ordoñez

Nueva tecnología para hacer sirugias


La presente invención se refiere a mejoras a máquina de escribir electrónica provista con un dispositivo para la colocación en cero de un órgano porta-caracteres giratorio, que incluye un motor seleccionador del carácter actuable mediante rotación intermitente del órgano porta caracteres, una memoria para memorizar la posición angular del órgano respecto al punto de escritura, un retén giratorio, en combinación con el órgano porta-caracteres, un retén fijo respecto a la rotación del órgano apto para detener el órgano porta-caracteres en una posición de cero y elementos para cargar la memoria con la posición de cero, cuando el órgano porta-caracteres es detenido por la acción del retén fijo en el retén giratorio, las mejoras caracterizadas por una cinta intermedia desplazable a la posición de impresión por delante del punto de escritura, por un miembro de comando accionable para llevar la cinta intermedia a la posición de impresión y el retén fijo en la trayectoria del retén giratorio; y por elementos de control que actúan sobre el miembro de comando, únicamente después de detenerse el motor de selección durante cada ciclo de selección y que actúan sobre el miembro de comando, a la vez que sobre el motor de selección para iniciar el órgano porta-caracteres.

publica :Moises Caseres C hacon 11_2

Mover Objetos con la Mente


Investigadores de la Universidad Nacional de Entre Ríos, en colaboración con especialistas de la Universidad Nacional de Tucumán, han diseñado un programa informático que reproduce en tiempo real las ondas emitidas por el cerebro sin necesidad de otra vía natural como músculos o nervios periféricos, siendo ejecutadas en una computadora de forma directa.

Este importante avance tecnológico permitirá “mover objetos con la mente“, proporcionando una extraordinaria ayuda a aquellas personas con enfermedades paralizantes.
“El objetivo es que las personas con esclerosis lateral amiotrófica, lesión medular o daño cerebral puedan controlar una prótesis o una silla de ruedas directamente desde modulaciones en su actividad cerebral”, ha dicho Gerardo Gentiletti, cordinador del proyecto.

Los técnicos lograron diseñar un simulador de una silla de ruedas que realiza sus movimientos mediante la estimulación visual que el cerebro envía a través de ondas llamadas P300, las cuales son captadas por el ordenador que las analiza, decodifica y finalmente las traduce en los movimientos que el cerebro quiere ejecutar.

por: Diego Ivan Ordoñez

ropa inteligente


La ingeniera de telecomunicaciones de la fundación Vodafone España, Mari Satur Torre, aseguró hoy en los Cursos de Verano que la Universidad de Málaga (UMA) desarrolla en el municipio malagueño de Ronda, que, en cuestión de un par de años, las prendas de ropa serán "inteligentes" y recopilarán información para valorar el estado de salud de las personas.


Torre, declaró a los periodistas que existe un proyecto consistente en unas prendas inteligentes que, a través de unos sensores, permiten recoger señales vitales como el electrocardiograma, la temperatura o constantes como la respiración o la tensión arterial, para luego hacer una valoración del estado de salud de la persona.

Posteriormente, estas señales son enviadas a través de un circuito que lo motoriza hacia un móvil y desde ahí hasta una plataforma para almacenar esa información que luego es consultada por los profesionales médicos para realizar una valoración del estado de salud de la persona.

Según la ingeniera, este proyecto, que está dentro del área de salud conocido como 'telemedicina', es "de momento" un prototipo, aunque el próximo año ya se realizarán pruebas con usuarios reales.

Por otra parte, Torre explicó el proyecto 'My Heart', en el que está participando la fundación Vodafone España y que, según señaló, "comprende la aplicación de las nuevas tecnologías para la gestión de la salud de enfermos cardiovasculares promoviendo lo que es el estilo de vida saludable y el diagnostico precoz de este tipo de enfermedades".

El proyecto está liderado por Philips y actualmente es considerado como una de las iniciativas más estratégicas del área de salud de la Comisión Europea. De igual modo, enumeró otros proyectos como el de la teleasistencia a móvil con la Organización No Gubernamental (ONG) Cruz Roja.

Sobre las enfermedades cardiovasculares subrayó que "el 45% de las personas en Europa mueren a consecuencia de una enfermedad cardiovascular", por tanto, resaltó que "encontrar una solución que prevenga este tipo de enfermedades es muy importante y el uso de un seguimiento continuo a través de la comunicaciones móviles puede ayudar a ello".

Entre las últimas tecnologías apuntó que "se utilizan los servicios que hay disponibles para el usuario en general, como el envío de mensajes cortos, el seguimiento a través de un cuestionario que puedas concretar con una sesión Wap o la simple comunicación a través de datos utilizando tanto GPRS como la comunicación de 3G".
publicado por :MoisesCaseres Chacon 11-2

jueves, 5 de noviembre de 2009


Affective Intelligent Driving Agent, AIDA para los amigos, es la última idea que nos llega desde las mentes de la gente del MIT. Su propósito es que sirva de enlace entre el conductor, el coche y lo que hay afuera. Para ello cuenta con sensores en el exterior del coche y en su propio cuerpo.

AIDA va montada en el salpicadero del automóvil, y se encarga de evaluar el estado del tráfico y la situación de los otros coches y a partir de esos datos, hacernos recomendaciones. La diferencia con un navegador GPS u ordenador de a bordo es que AIDA incorpora aspectos sociales, pudiendo parpadear, sonreír o mostrar en su rostro señales de alerta.


AIDA se encarga pues de hacer más amigable la recepción de información durante la conducción, lo cual será muy habitual dentro de no mucho y los fabricantes andan detrás de la mejor forma de comunicarse con el conductor.

publica : Moises Caseres Chacon 11:2


Control con la mente


Traducir las ondas cerebrales a comandos de ordenador es un nuevo campo en el diseño de interfaces de usuario. La idea es a concrete yudar a los individuos que está totalmente paralizados a comunicarse sin necesidad de pasar por una cirugía para la implantación de electrodos en el cerebro. La interfaz tiene tres componentes primarios de hardware y varias aplicaciones (software) especializadas. Un gorro de malla sostiene firmemente unos pequeños sensores contra la cabeza del usuario. Hay un amplificador conectado a los electrodos. Este se utiliza para potenciar las señales analógicas, medidas en microvoltios, que se reciben de la superficie del cuero cabelludo. A continuación, las señales se convierten en una señal digital y que se analiza con el software de procesamiento de señal instalado en un ordenador. El PC está conectado a dos monitores, uno para la interfaz del cuidador y otro para la del usuario.
El principal reto está en desarrollar un gorro sensor que sea cómodo y que cualquier persona sin ningún tipo de preparación lo pueda colocar fácilmente. De momento, una desviación de milímetros en la colocación de una sesión a otra afecta considerablemente a la precisión del sistema. El precio aproximado del sistema para un paciente será de 5.000 dólares, aunque los investigadores ha afirmado que intentarán reducir su precio.


por: Andres Enrique Quintero

jueves, 22 de octubre de 2009

Enzima para desarrollar biocombustible


Scientists Identify Enzyme That Could Help Grow Biofuel Crops In Harsh Environments
Según un artículo de ScienceDaily, científicos del Laboratorio Nacional Brookhaven del Ministerio de Energía estadounidense (DOE, por sus siglas en inglés) han identificado una novedosa enzima responsable de la formación de suberina, sustancia cerosa de las paredes celulares presente en la corteza de algunos árboles, como el corcho. Aunque también es eficaz a la hora de mantener el vino en el interior de la botella, la función principal de la suberina en las plantas es controlar el transporte de agua y nutrientes y mantener los patógenos en el exterior. El ajuste de la permeabilidad de los tejidos vegetales mediante la manipulación genética de la expresión de esta enzima podría dar lugar a una producción agrícola más fácil de las cosechas utilizadas para los biocombustibles.

La investigación, dirigida por los biólogos de Brookhaven Chang-Jun Liu y Jin-Ying Gou, se publicará en línea en la revista Proceedings of the National Academy of Sciences la semana del 19 de octubre de 2009.

Las plantas utilizan diferentes polímeros en la construcción de las paredes celulares, cada uno de ellos con propiedades únicas esenciales para el desarrollo y la supervivencia. La suberina, el polímero analizado en este estudio, se encuentra principalmente en las paredes celulares de los sistemas de raíces y semillas. Su función es moderar las sustancias que pasan al interior del organismo, actuando como barrera para sustancias dañinas y microorganismos al mismo tiempo que facilita la ingesta y almacenamiento de agua y otros nutrientes.

Según Liu, el equipo trató de entender la síntesis del componente fenólico ligado a las paredes de diferentes biopolímeros, entre ellos el polímero suberina, identificando las enzimas responsables de su construcción. Esta información se podría utilizar posteriormente para modificar las plantas con fines agrícolas, incluida una producción mejorada de biomasa. "Saber qué hace cada enzima puede permitir modificar las propiedades de los polímeros a medida con fines específicos a través de ña alimentación d ellas plantas o bien de ingeniería genética", explicó Liu.
En su experimento, Liu y sus colegas analizaron una cepa de Arabidopsis (una planta experimental común) que había sido genéticamente modificada para interrumpir la expresión de un gen que codifica una enzima conocida ahora como hidroxiacido hidroxicinamoiltransferasa (HHT). Los anáilisis químicos mostraron que dejar fuera de combate al gen de la HHT daba lugar a una deficiencia de los fenoles de la suberina, indicando que la HHT es la enzima responsable de la biosíntesis del polímero. Liu y sus colegas aislaron, a continuación, el gen y lo expresaron en bacterias para caracterizar aún más su función.

El equipo demostró también que las plantas deficientes en HHT eran mucho más permeables a la sal en disolución que sus equivalentes salvajes. Este descubrimiento, junto con la presencia ubícua de la suberina en los tejidos de la raíz d ella planta que controlan la absorción de agua y sal, sugiere que la suberina desempeña un papel importante en la adaptación de las plantas a su hábitat terrestre.
Aprovechar el mecanismo responsable de la producción de suberina podría, por tanto, permitir a los científicos crear variedades de cosechas a medida que prosperen en entornos específicos —incluso difíciles y extremadamente secos, como los desiertos—, un hito importante en el camino hacia una producción de biocombustibles económicamente eficiente.

por: Andres Enrique Quintero Santander

EL AVIÒN

El primer vuelo con éxito fue precedido de siglos de sueños, estudio, especulación y experimentación. Existían viejas leyendas con numerosas referencias a la posibilidad de movimiento a través del aire. Ciertos sabios antiguos creían que para volar sería necesario imitar el movimiento de las alas de los pájaros o el empleo de un medio como el humo u otro más ligero que el aire. Hacia el siglo V de nuestra era se diseñó el primer aparato volador: la cometa o papalote. En el siglo XIII el monje inglés Roger Bacon tras años de estudio, llegó a la conclusión de que el aire podría soportar un ingenio de la misma manera que el agua soporta un barco. A comienzos del siglo XVI Leonardo da Vinci analizó el vuelo de los pájaros y anticipó varios diseños que después resultaron realizables. Entre sus importantes contribuciones al desarrollo de la aviación se encuentra el tornillo aéreo o hélice y el paracaídas. Concibió tres tipos diferentes de ingenios más pesados que el aire: el ornitóptero, máquina con alas como las de un pájaro que se podían mover mecánicamente; el helicóptero diseñado para elevarse mediante el giro de un rotor situado en el eje vertical y el planeador en el que el piloto se sujetaba a una estructura rígida a la que iban fijadas las alas diseñadas a imagen de las grandes aves. Leonardo creía que la fuerza muscular del hombre podría permitir el vuelo de sus diseños. La experiencia demostró que eso no era posible. Fue una figura muy importante porque aplicó por primera vez técnicas científicas para desarrollar sus ideas. El siglo XIX El desarrollo práctico de la aviación siguió varios caminos durante el siglo XIX. El ingeniero aeronáutico e inventor británico sir George Cayley, teórico futurista, comprobó sus ideas experimentando con cometas y planeadores capaces de transportar un ser humano. Diseñó un aparato en forma de helicóptero pero propulsado por una hélice en el eje horizontal. Sus méritos le llevaron a ser conocido por sus compatriotas como el padre de la aviación. El científico británico Francis Herbert Wenham utilizó en sus estudios el túnel aerodinámico, sirviéndose del flujo del viento forzado en su interior para analizar el uso y comportamiento de varias alas colocadas una encima de otra. Fue además miembro fundador de la Real Sociedad Aeronáutica de Gran Bretaña. Otros personajes interesantes del mundo aeronáutico de la época fueron el inventor británico John Stringfellow y William Samuel Henson, quienes colaboraron al principio de la década de 1840, para fabricar el prototipo de un avión que pudiera transportar pasajeros. El aparato desarrollado por Stringfellow en 1848 iba propulsado por un motor de vapor y arrastrado por un cable y consiguió despegar aunque no pudo elevarse. El inventor francés Alphonse Penaud fabricó un modelo que se lanzaba con la mano e iba propulsado por bandas de goma retorcidas previamente y consiguió en el año 1871 que volase unos 35 metros. Otro inventor francés, Victor Tatin, diseñó un ingenio propulsado por aire comprimido y equipado con un rudimentario tren de aterrizaje de cuatro ruedas. Lo sujetó a un poste central y las dos hélices consiguieron elevar el aparato en vuelos cortos y de baja altura. El inventor británico nacido en Australia, Lawrence Hargrave, desarrolló un modelo de alas rígidas que iba impulsado por paletas batientes movidas por un motor de aire comprimido. Voló 95 metros en 1891. El astrónomo estadounidense Samuel Pierpont Langley fabricó en 1896 un monoplano en tándem impulsado por un motor de vapor cuyas alas tenían una envergadura de 4,6 metros. El aeroplano hizo varios vuelos, recorriendo entre 900 y 1.200 metros de distancia durante un minuto y medio. Subía en grandes círculos; luego, al pararse el motor, descendía lentamente para posarse en las aguas del río Potomac. Se hicieron numerosos esfuerzos para imitar el vuelo de las aves con experimentos basados en paletas o alas movidas por los músculos humanos, pero nadie lo logró. Merecen citarse el austriaco Jacob Degen entre 1806 y 1813, el belga Vincent DeGroof, que se estrelló y murió en 1874 y el estadounidense R. J. Spaulding quien patentó su idea del vuelo empujado por músculos en 1889. Más éxito tuvieron quienes se dedicaron al estudio de los planeadores y contribuyeron al diseño de las alas, como el francés Jean Marie Le Bris, quien probó un planeador con las alas batientes, el estadounidense John Joseph Montgomery y el renombrado alemán Otto Lilienthal. Lilienthal realizó sus experimentos con cometas y ornitópteros pero los mayores éxitos los obtuvo con sus vuelos en planeador entre l894 y 1896. Por desgracia murió en 1896 al perder el control de su aparato y estrellarse contra el suelo desde 20 metros de altura. Percy S. Pilcher, de Escocia, que también había obtenido grandes éxitos con su planeador, tuvo asimismo un accidente mortal en 1899. El ingeniero estadounidense Octave Chanute consiguió en 1896 pequeños logros con sus planeadores de alas múltiples, pero su contribución más notable a la aviación fue su libro sobre los avances aeronáuticos Progress in Flying Machines (1894). Los numerosos experimentos realizados con cometas durante esta época, consiguieron mejorar de forma notable los conocimientos sobre aerodinámica y estabilidad del vuelo. El inventor estadounidense James Means publicó sus resultados en los Aeronautical Annuals de 1895, 1896 y 1897. Lawrence Hargrave inventó en 1893 la cometa en forma de caja y Alexander Graham Bell desarrolló entre 1895 y 1910 diversas cometas en forma de tetraedro capaces de transportar a un ser humano en un pequeño alojamiento. Entre 1890 y 1901 se realizaron numerosos experimentos con prototipos provistos de motor. El más importante fue el de Langley que en 1901 y 1903 probó e hizo volar sin piloto un aeroplano a un cuarto de escala de su tamaño real. Le llamó Aerodrome y fue la primera aeronave más pesada que el aire provista de un motor de gasolina que consiguió volar. El modelo a escala real se terminó en 1903 y realizó dos pruebas que acabaron en desgraciados accidentes. El aviador alemán Karl Jatho intentó en 1903, también sin éxito, volar un modelo motorizado de tamaño real. Los logros conseguidos a lo largo del siglo XIX aportaron los fundamentos necesarios para el éxito de los hermanos Wright, pero los mayores avances se debieron a los esfuerzos de Chanute, Lilienthal y Langley a partir de 1885. En 1903 aún no se habían conseguido la estabilidad y el control necesarios para un vuelo prolongado, pero los conocimientos aerodinámicos y sobre todo el éxito de los motores de gasolina, que sustituyeron a los más pesados de vapor, permitirían que la aviación evolucionase con rapidez. El día 17 de diciembre de 1903, cerca de Kitty Hawk, en el estado de Carolina del Norte, los hermanos estadounidenses Wilbur y Orville Wright realizaron el primer vuelo pilotado de una aeronave más pesada que el aire propulsada por motor. El avión fue diseñado, construido y volado por ambos hermanos, quienes realizaron dos vuelos cada uno. El más largo fue el de Wilbur con 260 metros recorridos en 59 segundos. Al año siguiente continuaron mejorando el diseño del avión y su experiencia como pilotos a lo largo de 105 vuelos, algunos de más de 5 minutos. En 1905 llegaron a recorrer 38,9 kilómetros en 38 minutos y 3 segundos. Todos los vuelos se realizaron en campo abierto, regresando casi siempre cerca del punto de despegue. Hasta 1906 nadie más consiguió volar en un avión. En ese año el húngaro residente en París, Trajan Vuia, realizó algunos saltos muy cortos y también lo consiguió Jacob Christian Ellehammer en Dinamarca. El primer vuelo oficialmente registrado en Europa lo hizo en Francia el brasileño Alberto Santos Dumont y su trayecto más largo lo logró el 12 de noviembre de 1906 cubriendo una distancia de 220 metros en 22,5 segundos. El aeroplano, registrado como 14-bis, había sido diseñado por él y construido en la primera fábrica de aviones del mundo, la de los hermanos Voisin en París. Su forma era la de una gran cometa en forma de caja en la parte trasera y otra pequeña en la delantera, unidas por la estructura cubierta de tela. El motor era un Levavasseur Antoinette de 40 CV y estaba ubicado junto con la hélice en la parte posterior. El piloto iba de pie en una cesta situada delante del ala principal. En Europa nadie consiguió volar más de un minuto hasta finales de 1907, en que lo logró Henri Farman en un avión construido también por Voisin. En contraste con Europa, los hermanos Wright conseguían en Estados Unidos superar sus marcas día a día. El 3 de septiembre de 1908, Orville Wright hizo una demostración con un modelo más veloz para el Cuerpo de Señales del Ejército en Fort Meyer, Virginia. El 9 de septiembre completó el primer vuelo mundial de más de una hora y también por primera vez se transportó un pasajero, el teniente Frank P. Lamh, durante 6 minutos y 24 segundos. Estas demostraciones se interrumpieron el 17 de septiembre a causa de un accidente en el que resultaron heridos Orville y su pasajero el teniente Thomas E. Selfridge, quien murió horas después a consecuencia de una conmoción cerebral. Fue la primera persona muerta en accidente de avión propulsado por motor. Entretanto Wilbur Wright, que había ido a Francia en agosto, completó, el 31 de diciembre, un vuelo de 2 horas y 20 minutos demostrando un control total de su avión con suaves virajes, subidas y descensos a su entera voluntad. Recuperado de sus heridas y con la colaboración de Wilbur, Orville reanudó las demostraciones para el Cuerpo de Señales en julio de 1909 y cumplió sus requisitos a finales de mes. El aeroplano fue comprado el 2 de agosto y se convirtió en el primer avión militar operativo de la historia. Permaneció en servicio activo durante dos años y después fue retirado y trasladado a la Institución Smithsonian en la ciudad de Washington donde puede contemplarse todavía. Una figura importante entre los diseñadores, fabricantes y pilotos estadounidenses fue Glenn Hammond Curtiss, de Hammondsport, Nueva York. En 1907 realizó en solitario un vuelo en el dirigible construido por Thomas Baldwin, propulsado por un motor de motocicleta de la fábrica de Curtiss que él mismo había modificado. En mayo siguiente Curtiss voló, también en solitario, el aeroplano diseñado y fabricado por un grupo conocido como la Asociación de Experimentos Aéreos, organizada por Alexander Graham Bell. Curtiss era uno de sus cinco miembros. Con su tercer avión, el June Bug, el 4 de julio de 1908 Curtiss cubrió la distancia de 1.552 metros en 42,5 segundos y ganó el Trofeo Científico Americano, primer premio estadounidense concedido al vuelo de un avión. En Reims, Francia, el 28 de agosto del año siguiente, Curtiss ganó el primer torneo internacional de velocidad, al conseguir una marca de 75,6 km/h. El 29 de mayo de 1910 ganó también el premio New York World, dotado con 10.000 dólares, por realizar el trayecto desde Albany, en el estado de Nueva York, hasta la ciudad de Nueva York; y en agosto completó el trayecto desde Cleveland a Sandusky, Ohio, sobrevolando la costa del lago Erie. En enero de 1911 consiguió ser el primer americano en desarrollar y volar un hidroavión. En Europa lo había conseguido el 28 de marzo de 1910 el francés Henri Fabre. El pionero en cruzar el Canal de la Mancha fue el ingeniero y piloto francés Louis Blériot. El día 25 de julio de 1909, durante 35,5 minutos recorrió 37 kilómetros, desde Calais, Francia, a Dover, Inglaterra, en un avión monoplano diseñado y fabricado por él mismo. Durante los años posteriores a la I Guerra Mundial se realizaron grandes progresos tanto en el diseño de los aeroplanos como de los motores. Los aviones de dos alas con los motores y las hélices situadas en la parte posterior pronto fueron sustituidos por aviones con los motores situados en la parte delantera. Había muy pocos modelos de monoplanos, pero en cambio durante la guerra ambos contendientes fabricaron enormes biplanos con dos, tres y hasta cuatro motores que en Europa fueron al principio del tipo rotativo, aunque pronto se sustituyeron por los modelos radiales. En Gran Bretaña y Estados Unidos predominaron los motores refrigerados por agua. El transporte aéreo de correo se aprobó oficialmente en Estados Unidos en el año 1911 y se realizó el primer vuelo el 23 de septiembre. El piloto, Earle Ovington, llevó la saca de correos en sus rodillas en un vuelo que tan sólo duró 5 minutos y recorrió los 8 kilómetros que hay entre el bulevar Nassau y Mineola, ambos en Long Island, Nueva York. Ovington lanzó la saca sobre Mineola, donde fue recogida y trasladada a la oficina de correos. El servicio duró sólo una semana. En 1911 se completó el primer vuelo transcontinental en Estados Unidos, desde la ciudad de Nueva York hasta Long Beach en California. Lo consiguió el piloto estadounidense Calbraith P. Rodgers. Salió de Sheepshead Bay, en Brooklyn, Nueva York, el 17 de septiembre, al mando de un aeroplano Wright, y aterrizó en su destino el 10 de diciembre, 84 días más tarde. El tiempo real de vuelo fue de 3 días, 10 horas y 14 minutos. Avion de Transporte En Europa el avión fue usado para transporte de pasajeros en el año 1919, mientras que en Estados Unidos los primeros vuelos de la aviación comercial se dedicaron principalmente al correo. Los vuelos de pasajeros aumentaron en rutas como la de Londres a París, se introdujeron en Estados Unidos a partir de 1927 y crecieron más deprisa gracias a la aparición de aviones seguros y confortables como el Douglas DC-3. Este avión iba propulsado por dos motores de hélice y podía transportar 21 pasajeros a una velocidad de crucero de 300 km/h. Todavía se puede ver volando por los cielos de muchos países. Poco después aparecieron los aviones cuatrimotores que podían volar aún más de prisa, subir más alto y llegar más lejos. El siguiente paso se dio en 1950, con el Vickers Viscount británico, primer avión impulsado por hélice movida por turbina a gas. Los aviones para cubrir un servicio se eligen en función de dos factores: el volumen de tráfico y la distancia entre los aeropuertos a los que sirve. La distancia entre aeropuertos se conoce como recorrido y hay un elevado número de aviones que pueden operar entre 400 y 11.000 kilómetros. Los reactores comerciales de pasajeros se usaron al principio para recorridos de larga distancia. El avión británico De Havilland Comet inició su servicio en 1952, y el Boeing 707 en 1958. A finales de la década de 1950 apareció el Douglas DC-8 y los Convair 880 y 990. Estos aviones desarrollaban una velocidad de crucero aproximada de 900 km/h y transportaban más de 100 pasajeros. El Caravelle francés, el De Havilland Trident inglés y el Boeing 727 estadounidense, todos ellos más pequeños y diseñados con los motores en la cola, se construyeron para cubrir líneas de medio recorrido, entre 800 y 2.400 kilómetros. A mediados de la década de 1960 aparecieron birreactores aún más pequeños para operar en trayectos de corto recorrido, como el Boeing 737, el DC-9, el Fokker F-28 y el BAC-111. El Boeing 747 entró en servicio en el año 1970 y fue el primer avión comercial de fuselaje ancho. Sirve en trayectos de media y larga distancia y alta densidad. Utiliza motores turbofán y vuela en crucero a unos 900 km/h. Normalmente transporta 400 pasajeros, llegando hasta 500 en algunas versiones. El Douglas DC-10 y el Lockheed 1011 Tristar son también grandes aviones con capacidades próximas a los 300 pasajeros. Ambos van empujados por tres motores montados en la cola. Se diseñaron para cubrir trayectos como el de Chicago-Los Ángeles y otros de recorrido similar. El primer DC-10 voló en 1971 y el L-1011 en 1972. Mientras, en Europa, el primer avión birreactor de fuselaje ancho, Airbus A300, realizaba su primer vuelo en el mismo año. Airbus es un consorcio de empresas de distintos países europeos como España, Francia y Reino Unido entre otros. El avión supersónico comercial o SST constituye la cima en el desarrollo de la tecnología aeronáutica y permite cruzar el Atlántico Norte y regresar de nuevo en menos tiempo de lo que un reactor subsónico tarda en hacer uno de los trayectos. El supersónico soviético TU-144, que fue el primero en entrar en servicio en 1975, realizaba vuelos regulares de carga en la URSS. En 1962 los gobiernos del Reino Unido y Francia firmaron un acuerdo para desarrollar y construir el proyecto del avión supersónico Concorde. El primer vuelo de prueba se hizo en 1971 y el certificado de aeronavegabilidad se firmó en 1975. El primer vuelo comercial del avión francés fue desde París a Río de Janeiro, con escala en Dakar, y del inglés desde Londres a Bahrain. En sus inicios el proyecto SST fue criticado por ser antieconómico y muy ruidoso. A pesar de las objeciones, el servicio a los Estados Unidos comenzó el 24 de mayo de 1976, con vuelos simultáneos desde Londres y París al aeropuerto internacional Dulles cerca de la ciudad de Washington y a Nueva York (22 de noviembre de 1977). Excepto en los países de la antigua URSS, los vuelos SST deben realizarse a velocidades subsónicas cuando pasan por zonas habitadas. Las pérdidas de explotación del Concorde superaron los 500 millones de libras y dejó de fabricarse en 1979. Los aviones franceses han extendido sus servicios desde París a Caracas (Venezuela) y a Dakar (Senegal). A pesar del fracaso comercial del Concorde, los fabricantes y operadores están interesados en una posible segunda generación de aviones supersónicos. Entretanto hay una enorme competencia entre los fabricantes de aviones reactores subsónicos avanzados como los Boeing 757, 767 y 777 y los Airbus A-320, 330 y 340. El A-320 ha sido el primer avión comercial en usar el sistema de control completamente automático fly-by-wire. El avión cuatrimotor de largo recorrido A-340 y el trimotor McDonnell-Douglas MD-11 son los competidores del Boeing 747 mientras el bimotor de fuselaje ancho A330 y el Boeing 777 concurren en el mercado de alta densidad y medio recorrido donde ya competían el Boeing 767 y el Airbus A300/310. Los aviones de carga han conocido una expansión sin precedentes desde la II Guerra Mundial. Los primeros aeroplanos de carga fueron los Canadair CL-44 y el Armstrong-Whitworth Argosy, a los que siguieron versiones de los grandes aviones de pasajeros modificados para carga, que son los usados actualmente.


EDWIN GIOVANNY DULCEY LEÒN 11-02



EL AUTOMOVIL




El primer paso fueron los vehículos propulsados a vapor. Se cree que los intentos iniciales de producirlos se llevaron a cabo en China, a fines del siglo XVII, pero los registros documentales más antiguos sobre el uso de esta fuerza motriz datan de 1769, cuando el escritor e inventor francés Nicholas-Joseph Cugnot presentó el primer vehículo propulsado a vapor. Era un triciclo de unas 4,5 toneladas, con ruedas de madera y llantas de hierro, cuyo motor estaba montado sobre los cigüeñales de las ruedas de un carro para transportar cañones. Su prototipo se estrelló y una segunda máquina quedó destruida en 1771, pero la idea sería retomada y desarrollada en Inglaterra en los años siguientes. Hasta 1840, se construyeron en este país más de 40 coches y tractores propulsados a vapor. Por 1836, incluso, circulaban regularmente unas 9 diligencias a vapor, capaces de transportar cada una entre 10 y 20 pasajeros a unos 24 km./h. La búsqueda se concentraba en alguna forma más práctica de mover los coches autopropulsados. Y la solución apareció nuevamente en Europa en 1860, cuando el belga Etienne Lenoir patentó en Francia el primer motor a explosión capaz de ser usado sobre ideas aparecidas en Inglaterra a fines del siglo XVIII. El camino estaba trazado, pero habrían de pasar otros seis años hasta que el alemán Gottlieb Daimler construyera en 1866 el primer automóvil propulsado por un motor de combustión interna. Su prototipo era un gigante de casi dos toneladas de peso que fue presentado en la Exposición de París de 1867 por su patrón, el industrial alemán Nicholas Otto. Fue la base de la nueva industria. Tras años de trabajo, el mismo Daimler ideó una variante de apenas 41 kg. que sería el precursor de todos los motores posteriores a explosión. Sobre esta planta motriz el ingeniero mecánico Karl Benz (1 844-l 929) diseñó el primer vehículo utilizable impulsado por un motor de combustión interna; era un pequeño triciclo que empezó a funcionar a principios de 1885 y fue patentado el 26 de enero de 1886. El mismo Benz presentó un primer automóvil de cuatro ruedas con su marca en 1893 y construyó un coche de carrera en 1899. Pero si bien su empresa había sido pionera, a principios del nuevo siglo había quedado algo relegada por negarse a incorporar los adelantos más modernos logrados por otros precursores, como Daimler y su socio, Wilhelm Maybach. Todo lo cual hizo que en 1926 se fusionara eón la Daimler Motoren Gesellschaft para integrar la Daimler-Benz, que sería la predecesora de la famosísima Mercedes Benz. Con los primeros años del siglo XIX se agudiza la competencia entre las nacientes fábricas y también la preocupación por mejorar los diferentes sistemas del automóvil, como frenos, amortiguadores, carburación, transmisión y arranques. La rueda inflable había sido inventada en 1875 por el escocés Robert W. Thompson, pero ya la había mejorado un veterinario compatriota suyo, John Boyd Dunlop, quien en 1888 patentó un neumático que pasa a utilizarse en automóviles y bicicletas. En 1897 y luego de años de esfuerzos, Robert Bosch consiguió desarrollar un magneto de encendido de aplicación práctica y casi simultáneamente comenzó a funcionar el motor de autoencendido de Rudolf Diesel, que no requería de un sistema eléctrico de ignición. De paso, digamos que el combustible para los motores comunes no era problema, porque otro alemán, el profesor de química Eilhard Mitscherlich había descubierto la bencina en 1833, con lo cual ya estaba disponible el hidrocarburo liquido que pasó a llamarse nafta por derivación de un vocablo ruso: naphta. Era una época prolífica para el automóvil. En las postrimerías del siglo XIX, un joven francés llamado Louis Renault armó su primer auto en un taller instalado en los fondos de la casa de sus padres. En 1892, el norteamericano Henry Ford armó su primera máquina rodante con motor a nafta y en 1908 lanzó el Ford T, pero su nombre acapararía la fama sólo cuando a partir de 1913 disminuyó significativamente los costos al instalar en su fábrica de Highland Park la primera cadena de montaje, denominada así porque realmente consistía en una cadena metálica que se enganchaba en el chasis. Ford vendió 15.000.000 de unidades de su Ford T entre 1908y 1928 y su marca sólo sería batida en 1972 por otro popular automóvil, el Escarabajo de Volkswagen. Junto a Renault y Ford, sin embargo, habría que nombrar también a otros pioneros que forjaron la historia del automóvil. Por ejemplo, el aristócrata y corredor de carreras Charles Stuart Rolís, Ettore Bugatti, Ferdinand Porsche, Armand Peugeot, André Citroën, Ferrucio Lamborghini, Enzo Ferrari. Con ellos y quienes los siguieron fue construyéndose la era del auto moderno, ése que todavía hoy, más o menos aerodinámico, vemos andando por la calle.
EDWIN GIOVANNY DULCEY LEÒN 11-02

metales inteligentes


El Corporate Research Centre (CRC) de EADS en Ottobrunn junto con sus organismos y empresas asociadas, el CRC viene ocupándose desde hace muchos años del desarrollo de las denominadas “aleaciones con memoria de forma” (en inglés, shape memory alloys). Este tipo de metales inteligentes ya ha conquistado múltiples sectores, empleándose en el sector aeroespacial para mecanismos de desacoplamiento y conexiones de tubos, así como en cirugía, por ejemplo, para el ensanchamiento de vasos sanguíneos mediante stents. También existen aplicaciones más cotidianas, como monturas de gafas de gran elasticidad y aros de los sujetadores.

La explicación científica del “efecto memoria” es que se crea a temperaturas muy por debajo del punto de fusión, por medio de un cambio de fase -- reversible -- en estado sólido, llevado a cabo mediante plegado o cizallamiento de la estructura cristalina. Explica Schuster: “Suelo comparar este proceso con las piezas del dominó: todas ellas se caen. Lo que sucede en nuestras aleaciones es que, por así decirlo, vuelven a ponerse en pie”.

publica :Moises Caseres Chacon 11:2



Entre las aleaciones “con cociente intelectual incorporado” se encuentran las de níquel-titanio, cobre-cinc-aluminio y oro-cadmio. En función de la gama de temperatura, que puede ajustarse a través de la composición de la aleación y deun “entrenamiento” termomecánico, se presentan distintos efectos. Las deformaciones aparecidas en la fase de bajas temperaturas pueden anularse una sola vez calentándolas hasta alcanzar la fase de altas temperaturas. Este efecto unidireccional (efecto simple) se aprovecha por ejemplo en los elementos de union para tubos que desarrollaron conjuntamente el CRC y EADS Astrium, que se aplican a las conducciones de combustible de los satélites. Al calentar lasuniones previamente ensanchadas éstas se fijan mediante contracción sobre los tubos del empalme, logrando una gran fuerza de sujeción. Cuando una aleación inteligente muestra un cambio de forma al calentarla o enfriarla sin que exista intervención de una fuerza externa, nos encontramos ante el denominado “doble efecto”.

Un vistazo a Android 1.6 y Android Market


La Agencia de Seguridad Nacional estadounidense (NSA), donde se espía, interceptan y guardan comunicaciones y documentos de todo el planeta en todos los formatos imaginables, podría estar preparándose para almacenar información al nivel de Yottabytes (1024 Bytes) hacia el año 2015.

En términos más abarcables: un Yottabyte es un billón de Terabytes, o un millón de Exabytes, que a su vez es un millón de Terabytes, el tamaño de un disco duro convencional en un equipo de sobremesa potente de hoy en día. Es decir, que la capacidad de almacenamiento digital de la NSA en unos años sería de un millón de millones de veces la de un ordenador convencional.

En 2005 se calculó que la información digitalizada que existía en todo el planeta hasta entonces era de solo unos 5 exabytes. La vida completa de una persona se podría almacenar en alta resolución en unos cinco Petabytes (5 millones de Gigabytes).

Antes de la llegada de la informática, la NSA tuvo grandes problemas en su ansia por interceptar información y guardarla en papel. Uno de ellos, altamente curioso, era cómo destruirla una vez era considerada inservible. Para ello tuvo que rodear sus instalaciones de grandes incineradoras con las que quemar las toneladas y toneladas diarias de documentos inútiles, y ni aun así daban a basto. Entre esos documentos se incluían copias de todos los telegramas y télex internacionales que entraban y salían del país, además de todos los que eran interceptados a nivel internacional. Luego el problema pasaron a ser las cintas magnéticas y otros soportes de la era moderna. Otro problema para la NSA, y no menor, es la factura de electricidad que requiere todo ese almacenamiento, que se ha cifrado en unos 70 millones de dólares anuales. Esta y otras historias interesantes están en Body of Screts y The Puzzle Palace.

El problema ahora no es tanto la destrucción de esa información como su utilidad real una vez se ha almacenado: cómo buscar lo datos y encontrarlos en un tiempo razonable y cómo relacionar unas piezas de información con otras. Ese almacenamiento sin más ya se se demostró bastante inútil cuando se produjeron tanto los ataques del 11-S como otros a nivel internacional, sin que los datos previos de inteligencia permitieran prevenirlos o evitarlos.

La fuente de estos datos es un informe del think tank MITRE Corporation, que comentó el experto en la NSA James Bamford (autor de los libros mencionados), vía Scheiner.

por:Diego Ordoñez Vargas

El Declive Molecular de un Gen Apoya la Teoría de la Evolución de Darwin


Unos biólogos de la Universidad de California en Riverside han informado sobre una nueva evidencia del cambio evolutivo, recogida tanto en el registro fósil como en los genomas de organismos vivientes, proporcionando ello un nuevo apoyo a la teoría de la evolución de Charles Darwin.


Los investigadores fueron capaces de correlacionar la pérdida progresiva de esmalte en el registro fósil con un declive molecular simultáneo de un gen, llamado Enamelin, que está implicado en la formación de esmalte en los mamíferos.

El biólogo Mark Springer ha dirigido el estudio.

El esmalte es la sustancia más dura del cuerpo de los vertebrados, y recubre los dientes de la mayoría de los mamíferos.

Sin embargo, existen ejemplos de mamíferos sin dientes mineralizados y de mamíferos con dientes que no tienen esmalte. Además, el registro fósil documenta cuándo estos linajes perdieron el esmalte.



En 2007, Springer, Robert Meredith y John Gatesy iniciaron un estudio sobre los mamíferos que carecen de esmalte, en el que los investigadores se concentraron en el gen Enamelin. Ellos predijeron que estas especies tendrían copias del gen que codifica para la proteína Enamelin específica de los dientes, pero que este gen mostraría evidencia, en organismos vivientes, de declive molecular, debido a que estos genes son meros remanentes sin utilidad actual para la supervivencia del individuo.

Ahora el laboratorio de Springer ha encontrado evidencia de tales rasgos moleculares en los genomas de organismos vivos. Los investigadores han descubierto mutaciones en el gen Enamelin que alteran la forma en que es codificada la proteína Enamelin, resultando ello en el borrado de buena parte del "plano de construcción" de dicha proteína.

Darwin afirmó que todos los organismos descienden de un organismo o de unos pocos, y que la selección natural dirige el cambio evolutivo. El registro fósil demuestra que los primeros mamíferos tenían dientes con esmalte. Los mamíferos que carecen de él deben descender por lo tanto de mamíferos con dientes cubiertos de esmalte.

Por: Diego Ordoñez Vargas

viernes, 16 de octubre de 2009

Casas inteligentes

El último punto a tratar, anteriormente mencionado, es el de las casas inteligentes. La crisis energética pasa por mejorar los rendimientos de cualquier aparato, y a su vez ahorrar energía de cualquier forma posible, desde cerrar el grifo de la electricidad de vez en cuando a no perder calor o idear sistemas automáticos de iluminación y calefacción que no requieran un plus de energía.


sistemas refrigeradores:
La refrigeración natural o pasiva tiene por objetivo fundamental el conseguir el enfriamiento de una vivienda actuando sobre el propio diseño arquitectónico del edificio, lo que representa un ahorro energético y económico importante en forma de aparatos condicionadores, y a la vez garantiza una mejora del confort térmico de las viviendas durante la época estival.
La refrigeración pasiva depende del clima del país y de las diferencias térmicas entre las estaciones. El clima mediterráneo se caracteriza por diferencias térmicas poco importantes entre invierno y verano, hecho que requiere un doble diseño arquitectónico que combine sistemas de captación solar con sistemas de refrigeración. Sólo diseñando conjuntamente con los dos criterios, obtendremos un comportamiento térmico global del edificio eficiente durante todo el año.
Al igual que los sistemas de captación, los sistemas de refrigeración se pueden clasificar en tres grupos: pérdida directa, indirecta y separada.
La refrigeración por pérdida directa incluye el enfriamiento por sombra o protección solar, la ventilación así como todos los procedimientos que enfrían el ambiente en ponerse en contacto con una fuente fría como evaporación, radiación y absorción por la masa térmica.
Los sistemas de sombra evitan la entrada directa de la radiación solar a las viviendas, lo que evita el sobrecalentamiento estival. Estos elementos pueden ser fijos o móviles como también pueden consistir en cristales reflectantes o absorbentes.
La ventilación natural es el sistema más utilizado en la mayoría de climas cálidos y húmedos por su funcionalidad. El movimiento del aire facilita la disipación del calor convirtiéndolo en un sistema útil para aumentar el confort térmico en el interior del edificio. El sistema más conocido y utilizado es el de ventilación cruzada o inducida, que consiste en la facilitación de la circulación de aire dentro de los edificios con grandes oberturas de entrada y salida de aire y evitando interponer obstáculos entre dichas aperturas. Otros sistemas son la chimenea solar o la torre de viento.
Existen otros métodos de refrigeración por pérdida directa como son los sistemas de evaporación y absorción por masa térmica. La evaporación consiste en disminuir la temperatura del ambiente utilizando fuentes de agua cercanas al edificio. La absorción del calor por la masa térmica consiste en diseñar edificios de manera que la masa del mismo edificio pueda absorber el calor del interior durante el día, y darla por la noche. El ejemplo mas conocido de esta técnica es el construir casas medio enterradas.
La refrigeración por pérdida separada obtiene el aire fresco en una zona separada del edifico a refrigerar como la tierra o un volumen de agua. El procedimiento se basa en hacer circular el aire exterior por un tubo enterrado o que atraviese el agua, el aire se enfriará más como más largo sea su recorrido antes de ser introducido en el edificio.
publicado por :Moises Caseres chacon 11:2

LA PERFECCIÒN DEL HOMBRE







Muchos personas que se encuentran en el área tecnológica – científica (esta última especialmente) consideran que los avances que se están dando actualmente y los proyectos futuros, son simplemente muestras de la capacidad del hombre y que además será un elemento para “perfeccionarlo o mejorar” al hombre en general.

Lo que ahora me pregunto es: ¿De qué se trata este avance para el perfeccionamiento?

-Cuando se inventaron los vehículos, se cree que mejoraron la vida de todas las personas, algo que tal vez es muy cierto por la facilidad y comodidad que de ello resulta, pero ¿Han aumentado los peligros al volante? ¿No vemos que los vehículos actuales con un choque se deshacen, porque el material es de lata? ¿Qué pasa con las personas que mueren día a día gracias a esto? Si bien los aviones son un gran invento, ¿Cuánta gente muere al año en accidentes de avión? Parece que a media que los inventos del transporte avanzan, existe una ecuación que su resultado es proporcional al avance, ¿Será cierto?


EDWIN GIOVANNY DULCEY LEÒN 11-02

Aviones sin ruido


Según un artículo publicado el 7 de noviembre de 2006, un grupo de ingenieros ha desvelado lo que esperan será el futuro de las aerolíneas comerciales: una aeronave tan silenciosa que nadie podrá oirá nada fuera del aeropuerto.

El SAX-40 consumirá un 25% menos de fuel que los aviones modernos y podrá llevar 215 pasajeros hasta 5.000 millas náuticas (9.250km) a una velocidad máxima de 965km/h. El concepto de diseño de ala combinada, que llegará al servicio comercial en el 2030, es el resultado de la iniciativa Silent Aircraft Initiative (SAI), un proyecto de colaboración de tres años y 2,3 millones de libras, entre la Universidad de Cambridge y el Instituto Tecnológico de Massachusetts.

Aunque las líneas aéreas llevan en funcionamiento más de medio siglo, el diseño básico de las aeronaves no ha cambiado: un tubo a modo de fuselaje con motores colgando bajo las alas. La forma del SAX-40 es más aerodinámica, con lo cual
produce menos turbulencias y, por tanto, menos ruido.

Con cientos de micrófonos, los ingenieros comprobaron el sonido que producen muchos de los nuevos componentes. Su simulación predijo que el ruido del nuevo avión sería de 63 decibelios en el perímetro del aeropuerto, el equivalente al de una calle concurrida.

“Es el diseño integral del sistema lo que permite el bajo nivel de ruido y no una tecnología concreta”, afima Zoltan Spakovsky, del MIT. La idea principal para reducir el ruido ha sido la de poner los motores sobre el cuerpo del avión, de este modo el fuselaje refleja las ondas sonoras hacia arriba, alejándolas del suelo. Además, se han simplificado las alas, eliminando los flaps y slats, una de las principales fuentes de ruido durante el aterrizaje de un avión.

Otras ideas han sido forrar los motores con materiales que absorben el sonido y hacerlos más largos, de modo que es posible añadir silenciadores acústicos en sus extremos. También cuentan con boquillas ajustables que retienen el ruido durante el despegue y se abren, posteriormente, a una altitud de navegación para maximizar la eficiencia del combustible.
publica;Moises Caseres Chacon 11:2

LOS 10 MAYORES AVANCES CIENTIFICOS


Bienvenido al primer ranking anual de los 10 logros científicos más importantes (en opinión de Wired News). El 2007 ha sido un año asombroso para la ciencia, al contrario que con el 2006, no ha habido casos de fraude científico de alto grado – al menos ninguno que no haya sido desenmascarado. Las publicaciones científicas han tomado precauciones extras, requiriendo que los científicos pudieran replicar sus resultados en un esfuerzo encaminado a evitar los fiascos científicos. Aquí os ofrecemos una cuenta atrás de los 10 descubrimientos científicos que sacudieron más contundentemente nuestro mundo durante este año.

10.
Los transistores se minuaturizan aún más
En enero Intel anunció que el elemento hafnio y algunas nuevas aleaciones les permitiría hacer aún mas pequeños los millones de interruptores de sus microprocesadores. Gordon Moore, coofundador de la empresa y padre de la ley que lleva su nombre, anunció este logro como el mayor en tecnología de transistores desde la década de 1960. La reducción de tamaño (de los 65 nanómetros estándar a los 45) no es el único aspecto positivo, este nuevo tipo de transistores serán mucho más eficientes energéticamente. Intel empezó el pasado mes a usar esta tecnología (llamada Penryn) en servidores de alta gama. Los usuarios domésticos podremos acceder a esta tecnología a comienzos del año que viene.

9
. Científicos clonan a un mono rhesus para producir células madre
En la Universidad de Oregón, Shoulkhrat Mitalipov y su equipo clonó un macaco rhesus y empleó el embrión resultante para crear células madre. Hasta entonces, este impresionante logro solo se había conseguido con ratones. En noviembre, el equipo informó en Nature sobre una clave sorprendente en su éxito: evitar la luz ultravioleta y los colorantes (herramientas que siempre se usan en experimentos de clonación) ya que pueden dañar a las delicadas células.

Las células madre podrían usarse para reparar casi cualquier órgano dañado, pero son inútiles si despiertan al sistema inmune. Clonando al propio paciente enfermo, y usando luego las células madre derivadas de sus propio cuerpo, los doctores podrían evitar los problemas a los que se enfrentan normalmente los pacientes que reciben un órgano transplantado. Pero algunos científicos creen que el descubrimiento nº1 de nuestra lista hace innecesaria la clonación; otros no obstante (como los investigadores en células madre de Harvard) creen que la clonación sigue siendo necesaria.

8.
Descubren planeta que podría albergar vida
Los entusiastas de la astrobiología han tenido varios motivos de regocijo este año, pero uno de ellos ha resultado controvertido en cierto aspecto. Después de que Stéphane Udry y sus colegas descubrieran un par de planetas que en su opinión podrían albergar vida, otros investigadores disputaron sobre cual de los dos sería más habitable, aunque todos estuvieron de acuerdo en que los sistemas solares distantes merecen ser sujeto de nuevos estudios. Usando un telescopio espacial canadiense y el Observatorio Europeo del Sur (ESO) en Chile, Udry dedujo que el objeto más prometedor es ligeramente más grande que la Tierra, da una vuelta completa a su sol cada 18 días y podría ser rocoso. En una edición de finales de abril de la revista Astronomy and Astrophysics, el profesor de la Universidad de Ginebra aportó detalles sobre esta sofisticada investigación. Ambos cuerpos celestes orbitan a la estrella enana roja Gliese 581, que se encuentra a solo 20 años luz de la Tierra. Aunque las perspectivas para ambos mundos podrían ser menos esperanzadoras de lo que Udry y sus socios pensaron, los métodos empleados para localizar pequeños planetas podrían emplearse para realizar nuevos descubrimientos.

7. Ingenieros crean material transparente tan fuerte como el acero
Investigadores en ingeniería de materiales de la Universidad de Michigan han creado un material similar al “aluminio transparente”, la fantástica substancia descrita por Scotty en Star Trek IV. En la edición del 5 de octubre de la revista Science, Nicholas Kotov demostró que la arcilla es buena para mucho más que hacer ladrillos y productos baratos para el cuidado facial. Este material terroso se compone de partículas de tamaño nanométrico extraordinariamente fuertes. Cuando se las dispone cuidadosamente entre finas capas de una débil sustancia plástica, los diminutos pedazos de suciedad actúan como el mayor de los refuerzos, dando a este ordinario material una resistencia extraordinaria. Este robusto compuesto podría emplearse para hacer armaduras ligeras o aeronaves.

6. Analizan tejidos blandos en el fémur de tiranosaurio
Esta primavera, el paciente más anciano del departamento de patología del Centro Médico Beth Israel Deaconess de Boston era un tiranosaurio de 68 millones de años. Por primera vez, los científicos han analizado moléculas biológicas de las criaturas del jurásico. Trabajando con tejidos blandos encontrados en un fémur extremadamente bien conservado entre los sedimentos prehistóricos de Montana, John Asara encontró la receta de una proteína que servía como elemento estructural elástico en los huesos de los dinosaurios. En el número del 13 de abril de la revista Science, Asara y sus colegas compararon al mortífero depredador con los animales que vagan hoy en día por la Tierra, y concluyeron que tienen mucho en común con los pollos.

5. Curan el Síndrome de Rett en ratones de laboratorio
Investigadores relacionados con el Trust Wellcome han mostrado evidencias de que el Síndrome de Rett, un trastorno del desarrollo neurológico que aflige a una de cada 10.000 niñas nacidas, podría ser curable. Provocado por una mutación, el desorden evita que las niñas que lo sufren caminen o hablen, y les provoca unos temblores terribles. Tras crear un ratón con una aflicción similar, Adrian Bird y sus colegas de la Universidad de Edimburgo y de la Universidad de Glasgow comprobaron los efectos provocados tras reparar cierto gen incorrecto. En la edición del 23 de febrero de Science, explicaron que la enfermedad no provocaba daños permanentes en las células nerviosas, y que los temblores y los problemas de respiración de los ratones se detenían cuando se les forzaba a producir de forma normal el MeCP2; la proteína corrompida por la enfermedad.

4. Enzimas que convierten cualquier tipo de sangre en O
Varias crisis por falta de sangre tipo O en hospitales estadounidenses, subrayan la importancia de crear un tipo de sangre versátil. En las raras ocasiones en que una persona recibe una transfusión de sangre del tipo equivocado, la violenta reacción (causadas por las moléculas de azúcar ubicadas sobre la superficie de los glóbulos rojos) puede hacer que el sistema inmune deje de funcionar correctamente.

En abril, Henrik Clausen, profesor de la Universidad de Dinamarca, publicó un trabajo en la revista Nature en el que describía un método para convertir cualquier tipo de sangre en O (el tipo de sangre que casi todo el mundo puede tolerar). Clausen descubrió unas enzimas que “cortan” los problemáticos azúcares de las superficies de los glóbulos rojos de tipo A, B y AB. Producidas por bacterias, las máquinas moleculares podrían teóricamente convertir cualquier clase de sangre en tipo O. Clausen y sus colegas describieron la búsqueda de estas tranquilizadoras proteínas en la edición del 1 de abril de la revista Nature Biotechnology.

ZymeQuest, una compañía startup de Massachusetts, desarrolla en la actualidad un dispositivo para hospitales que pueda utilizarse durante las crisis de existencias.

3. Desentierran y analizan dinosaurio momificado
Paleontólogos de la inglesa Universidad de Manchester han desenterrado la momia casi intacta de un dinosaurio herbívoro. Preservado por los minerales durante 65 millones de años, el cuerpo petrificado se encuentra en unas condiciones tan pristinas, que los investigadores pudieron ver una tira de piel con su patrón de escamas. Este otoño, los científicos transportaron el hadrosaurio fosilizado a un escáner tomográfico gigante en Canoga Park, California, donde los técnicos capturaron varios terabytes de imágenes en 3D que han revelado sorpresas acerca de las masas musculares de la criatura y el espaciado de sus huesos. Tyler Lyson, ahora estudiante de graduado en geología en la Universidad de Yale, realizó el hallazgo inicial hace 7 años mientras buscaba fósiles en la formación rocosa Hell Creek de Dakota del Norte.

2.
Los Chimpances usan lanzas para cazar
Dos antropólogos observaron entre divertidos y horrorizados como varias hembras de chimpancé fabricaban lanzas y las usaban para cazar de forma brutal pequeños mamíferos. Siguiendo a un grupo de primates en la savana senegalesa, Jill Pruetz de la Universidad del estado de Iowa y Paco Bertolani de Cambdridge, los observaron romper las ramas de algunos árboles, retirar las hojas laterales y afilar las puntas. En la edición de marzo de la revista Current Biology, los científicos explicaron que un comportamiento animal así de sofisticado podría ofrecer una buena aproximación al modo en que los humanos primitivos emplearon sus herramientas.

1. Investigadores convierten células cutáneas en células madre
Empleando un virus para reprogramar células de la piel, dos equipos científicos lograron esquivar el más grande de los impedimentos éticos al que se enfrenta la medicina regenerativa: la destrucción de embriones humanos. Los dos grupos, dirigidos por Shinya Yamanaka de la Universidad de Kyoto y Junying Yu de la Universidad de Wisconsin, convencieron a un tipo de células dérmicas llamadas fibroblastos para que se convirtieran en tejido muscular, cardíaco, adiposo y nervioso sin usar ningún óvulo. Desafortunadamente, las células “pirateadas” se convierten a menudo en tumores. Continuando tras su descubrimiento inicial este noviembre, Yamanaka comentó en Nature Biotechnology que insertando tres genes del crecimiento en lugar de cuatro, los tejidos cultivados en laboratorio podían ser controlados sin devenir en cancerosos
.


PUBLICADO: EDWIN GIOVANNY DULCEY LEÒN 11-02

El genoma humano en 3D



Desplegado, el genoma humano tendría unos seis pies de ADN. Sorprendentemente, todo ese largo está enrollado en el núcleo de una célula de unos tres micrómetros de diámetro; aproximadamente, un tercio del ancho de un cabello humano.

Una nueva tecnología que permite evaluar las interacciones en tres dimensiones entre diferentes partes del genoma ha desvelado cómo están estas moléculas en un espacio tan diminuto. Los resultados podrían dar lugar también a nuevas pistas sobre la regulación del genoma: cómo se activan y desactivan genes específicos.

Aunque anteriormente los científicos han sido capaces de resolver la estructura tridimensional de las partes del genoma, este nuevo estudio es el primero en hacerlo en la escala del ancho del genoma. "Nuestra tecnología es una especie de IRM para genomas", señala Erez Lieberman-Aiden, investigador de la Harvard-MIT Division of Health Sciences and Technology y uno de los autores de un nuevo artículo que detalla el trabajo.

El ADN tiene múltiples niveles de organización: la secuencia lineal de bases, su famosa estructural helicoidal y formaciones de orden superior que lo envuelven alrededor de la proteínas y lo enrollan para formar los cromosomas; pero identificar cómo está organizado el ADN en estos niveles superiores a lo largo del genoma ha sido complicado. "Tenemos la secuencia lineal completa del genoma, pero nadie sabe siquiera los principios de cómo está organizado el ADN en el espacio de orden superior", señala Tom Misteli, científico del National Cancer Institute, de Bethesda, Maryland, quien no participó en el estudio.

Un fondo cada vez más amplio de investigaciones muestra también que esta organización es fundamental para regular la actividad genética. Por ejemplo, los genes se deben desenrollar previamente a su transcripción en proteínas. Y algunos genes se activan solo cuando se enlazan a secuencias de ADN en cromosomas totalmente diferentes, señala Misteli.

En un nuevo método, llamado Hi-C, los científicos utilizan primero un conservante como el formaldehído para fijar la estructura tridimensional de una molécula de ADN en su lugar. De este modo, las secuencias de los genes que están próximos entre sí en la estructura tridimensional, pero no necesariamente adyacentes en la secuencia lineal, se enlazan entre sí. El genoma fijado se divide, a continuación, en un millón de trozos utilizando una enzima que corta el ADN. Pero los segmentos de ADN que se unieron durante el proceso de fijación permanecen unidos.


por: Andres Enrique Quintero Santander

Investigadores consiguen regenerar un nervio óptico



Restauran" nervio óptico en ratones

Científicos en Estados Unidos aseguran haber regenerado los nervios ópticos dañados que conectan el ojo al cerebro de ratones.

Los expertos afirman que el proceso da nueva esperanza a las personas que sufren de glaucoma, una enfermedad que somete el nervio óptico a tanta presión que lo destruye.

La investigación, realizada por el Insitituto Schepens de Investigación del Ojo en la ciudad de Boston, aparece publicado en el Journal of Cell Science.

El director del estudio, doctor Dong Feng Chen dijo: "Esta es la primera vez que la ciencia regenera tantas fibras nerviosas a lo largo de una gran distancia para llegar a su objetivo y reparar un nervio considerado insalvable".

Daño permanente

Muchos tejidos del cuerpo se regeneran constantemente si son dañados.

Sin embargo, el nervio óptico, y otros tejidos del sistema nervioso central, no tienen esta habilidad, así que el daño es permanente.

El equipo del instituto Schepens ya había descubierto que la inhabilidad del nervio óptico para regenerarse estaba vinculada a un gen llamado BCL-2 cuando está inactivo.

También creen que el proceso de restauración está bloqueado desde el nacimiento, por una especie de cicatriz en el cerebro producida por células especializadas.

Los científicos criaron ratones en los que el gen BCL-2 siempre está activado.

Descubrieron que los animales podían regenerar el tejido del nervio óptico muy rápido, pero sólo cuando eran jóvenes y antes de que el cerebro produjera la cicatriz.

Jóvenes y viejos

Decidieron, entonces, no sólo criar ratones con el gen BCL-2 activo, sino inhabilitar la cre ación de la cicatriz.

El resultado fue positivo inclusive en animales viejos.

"Pudimos observar que por lo menos 40% del nervio óptico se había regenerado, pero creemos que fue aún más", aseguró el dr. Chen.

El siguiente paso será ver si los nervios regenerados son funcionales.

Los investigadores piensan que esta técnica puede ser utilizada para restaurar tejidos dañados de otras partes del sistema nervioso central, creando la posibilidad de que pacientes con daños a la médula espinal puedan caminar otra vez.

Otros científicos, sin embargo, optan por ser más cautelosos ya que regenerar el nervio óptico de ratones es cuestión de milímetros, mientras que con humanos las distancias son en las decenas de centímetros.


por: Diego Ordoñez Vargas

jueves, 15 de octubre de 2009

LA AEROLINEA


En la década de los años 30, la aviones eran aún construidos de la misma manera que en primera guerra mundial: una célula en forma de armazón (algunas aún de madera, aunque la mayoría la poseían formada de tubos de acero o aleación ligera), revestida con telas y tensadas por alambre. Los pocos aviones monoplanos existentes tenían un ala del tipo parasol.
En esta década comenzaron a surgir algunas importantes innovaciones en el diseño y en la construcción de aviones, entre las cuales destacamos[1]:


1) La construcción semimonocasco: en lugar de un revestimiento ligero sobre un armazón robusto, se comenzó a utilizar un revestimiento resistente en forma de caja compacta. Al inició está se hacía de madera, pero cuando se inicio su construcción en metal se abrió el camino hacia la estructura monocasco, que permitía diseñar aviones de líneas aerodinámicas más perfectas, con una solo plano de ala en voladizo (empotrada en el casco), sin riostras de sujeción. Los anteriores monoplanos no habían logrado conseguir los beneficios teóricos de esta eficiencia, al tener alas con perfiles muy gruesos o por el elevado número de montantes o riostras. Las alas de revestimiento metálico eran bastantes delgadas, y al mismo tiempo podían construirse totalmente en voladizo o “cantilever”.
2) Incremento en la potencia de los motores: pasando de una potencia de 500 hp en 1930 a los 1000 hp de 1935 y acercándose luego a los 2000hp. Su instalación resultó notablemente mejorada, especialmente en los radiales refrigerados por aire que, aunque más simples y compactos (lo que proporcionaba a los cazas mayor maniobrabilidad), y al ser de mejores prestaciones en climas muy fríos o muy cálidos. Hasta entonces se habían instalado tan toscamente, que no habían podido competir en velocidad con los motores de doce cilindros en V refrigerados por líquido. Las hélices, construidas hasta entonces de un único bloque de de madera laminada, se construyeron con palas independientes montadas sobre un buje que contenía un dispositivo que controlaba el paso de rotación de la hélice, pasando ahora a ser variable.
3) Tren de aterrizaje retráctil, adopción de cabinas cerradas: se había inventado ya en 1920, pero los aviones de principio de los 30 no lo llevaban. Al principio estos trenes de aterrizajes eran mecanismos complicados, luego se hicieron más simples y robustos. Las cabinas habían estado dotadas de techo corredizo desde 1914, pero la mayoría eran de celuloide, que no permitían una buena visibilidad a larga distancia, y por tanto eran rechazadas por los pilotos de caza. La radio, el oxígeno y los sistemas de vuelo nocturno se adoptarían paulatinamente en los años 30.


Polikarpov I 16, primer avión en servicio contren de aterrizaje reclinable.Además tenía construcción monocasco




En los primeros monoplanos, el exceso de carga de armamento obligó a diseñar alas con flaps ranurados y otros elementos hipersustentadores, que rompían la línea aerodinámica del diseño, y por lo tanto, su velocidad y eficiencia en combate. Estos elementos serían más tarde eliminados, como en el caso del Messerchimitt Bf-109 E al pasar su diseño al de Bf-109 F. Obviamente no todas las mejoras arriba señaladas se dieron en un mismo diseño a la vez, por ejemplo, el primer monoplano en entrar en servicio[2], desde la primera guerra mundial, fue el norteamericano Boeing P-26, contando aún con características “primitivas”, como el tren de aterrizaje fijo y alas con sistemas de riostras. El francés Dewoitine D.510, tenía alas con revestimiento metálico sin riostras y tren de aterrizaje fijo; algunos escuadrones franceses estaban equipados aún con este obsoleto caza al empezar la guerra. El modelo más destacado, en cuanto a lo avanzado de su diseño y que entro en servicio en grandes cantidades en la guerra civil española[3], el Polikarpov I-16, fue en su momento el caza más moderno del mundo, al incorporar alas en “cantilever” dentro de un monocasco, y contar de un tren de aterrizaje retráctil simple y robusto[4]. El japonés Mitsubishi A5M “Claude”, fue el primer caza naval monoplano que entro en servicio; combatió eficientemente al Polikarpov I-16 en las escaramuzas en la frontera de Mongolia, durante la invasión japonesa a China. Fue el diseño que sirvió de base al Mitsubishi A6M Zero, que daría la superioridad aérea al Japón durante más de un año, después de Pearl Harbor. Como vemos, para entender la evolución del diseño aeronáutico debemos visualizarlo a nivel mundial, ya que los distintos avances se daban en distintos países.
PUBLICADO : EDWIN GIOVANNY DULCEY LEÒN 11-02