jueves, 22 de octubre de 2009

Enzima para desarrollar biocombustible


Scientists Identify Enzyme That Could Help Grow Biofuel Crops In Harsh Environments
Según un artículo de ScienceDaily, científicos del Laboratorio Nacional Brookhaven del Ministerio de Energía estadounidense (DOE, por sus siglas en inglés) han identificado una novedosa enzima responsable de la formación de suberina, sustancia cerosa de las paredes celulares presente en la corteza de algunos árboles, como el corcho. Aunque también es eficaz a la hora de mantener el vino en el interior de la botella, la función principal de la suberina en las plantas es controlar el transporte de agua y nutrientes y mantener los patógenos en el exterior. El ajuste de la permeabilidad de los tejidos vegetales mediante la manipulación genética de la expresión de esta enzima podría dar lugar a una producción agrícola más fácil de las cosechas utilizadas para los biocombustibles.

La investigación, dirigida por los biólogos de Brookhaven Chang-Jun Liu y Jin-Ying Gou, se publicará en línea en la revista Proceedings of the National Academy of Sciences la semana del 19 de octubre de 2009.

Las plantas utilizan diferentes polímeros en la construcción de las paredes celulares, cada uno de ellos con propiedades únicas esenciales para el desarrollo y la supervivencia. La suberina, el polímero analizado en este estudio, se encuentra principalmente en las paredes celulares de los sistemas de raíces y semillas. Su función es moderar las sustancias que pasan al interior del organismo, actuando como barrera para sustancias dañinas y microorganismos al mismo tiempo que facilita la ingesta y almacenamiento de agua y otros nutrientes.

Según Liu, el equipo trató de entender la síntesis del componente fenólico ligado a las paredes de diferentes biopolímeros, entre ellos el polímero suberina, identificando las enzimas responsables de su construcción. Esta información se podría utilizar posteriormente para modificar las plantas con fines agrícolas, incluida una producción mejorada de biomasa. "Saber qué hace cada enzima puede permitir modificar las propiedades de los polímeros a medida con fines específicos a través de ña alimentación d ellas plantas o bien de ingeniería genética", explicó Liu.
En su experimento, Liu y sus colegas analizaron una cepa de Arabidopsis (una planta experimental común) que había sido genéticamente modificada para interrumpir la expresión de un gen que codifica una enzima conocida ahora como hidroxiacido hidroxicinamoiltransferasa (HHT). Los anáilisis químicos mostraron que dejar fuera de combate al gen de la HHT daba lugar a una deficiencia de los fenoles de la suberina, indicando que la HHT es la enzima responsable de la biosíntesis del polímero. Liu y sus colegas aislaron, a continuación, el gen y lo expresaron en bacterias para caracterizar aún más su función.

El equipo demostró también que las plantas deficientes en HHT eran mucho más permeables a la sal en disolución que sus equivalentes salvajes. Este descubrimiento, junto con la presencia ubícua de la suberina en los tejidos de la raíz d ella planta que controlan la absorción de agua y sal, sugiere que la suberina desempeña un papel importante en la adaptación de las plantas a su hábitat terrestre.
Aprovechar el mecanismo responsable de la producción de suberina podría, por tanto, permitir a los científicos crear variedades de cosechas a medida que prosperen en entornos específicos —incluso difíciles y extremadamente secos, como los desiertos—, un hito importante en el camino hacia una producción de biocombustibles económicamente eficiente.

por: Andres Enrique Quintero Santander

EL AVIÒN

El primer vuelo con éxito fue precedido de siglos de sueños, estudio, especulación y experimentación. Existían viejas leyendas con numerosas referencias a la posibilidad de movimiento a través del aire. Ciertos sabios antiguos creían que para volar sería necesario imitar el movimiento de las alas de los pájaros o el empleo de un medio como el humo u otro más ligero que el aire. Hacia el siglo V de nuestra era se diseñó el primer aparato volador: la cometa o papalote. En el siglo XIII el monje inglés Roger Bacon tras años de estudio, llegó a la conclusión de que el aire podría soportar un ingenio de la misma manera que el agua soporta un barco. A comienzos del siglo XVI Leonardo da Vinci analizó el vuelo de los pájaros y anticipó varios diseños que después resultaron realizables. Entre sus importantes contribuciones al desarrollo de la aviación se encuentra el tornillo aéreo o hélice y el paracaídas. Concibió tres tipos diferentes de ingenios más pesados que el aire: el ornitóptero, máquina con alas como las de un pájaro que se podían mover mecánicamente; el helicóptero diseñado para elevarse mediante el giro de un rotor situado en el eje vertical y el planeador en el que el piloto se sujetaba a una estructura rígida a la que iban fijadas las alas diseñadas a imagen de las grandes aves. Leonardo creía que la fuerza muscular del hombre podría permitir el vuelo de sus diseños. La experiencia demostró que eso no era posible. Fue una figura muy importante porque aplicó por primera vez técnicas científicas para desarrollar sus ideas. El siglo XIX El desarrollo práctico de la aviación siguió varios caminos durante el siglo XIX. El ingeniero aeronáutico e inventor británico sir George Cayley, teórico futurista, comprobó sus ideas experimentando con cometas y planeadores capaces de transportar un ser humano. Diseñó un aparato en forma de helicóptero pero propulsado por una hélice en el eje horizontal. Sus méritos le llevaron a ser conocido por sus compatriotas como el padre de la aviación. El científico británico Francis Herbert Wenham utilizó en sus estudios el túnel aerodinámico, sirviéndose del flujo del viento forzado en su interior para analizar el uso y comportamiento de varias alas colocadas una encima de otra. Fue además miembro fundador de la Real Sociedad Aeronáutica de Gran Bretaña. Otros personajes interesantes del mundo aeronáutico de la época fueron el inventor británico John Stringfellow y William Samuel Henson, quienes colaboraron al principio de la década de 1840, para fabricar el prototipo de un avión que pudiera transportar pasajeros. El aparato desarrollado por Stringfellow en 1848 iba propulsado por un motor de vapor y arrastrado por un cable y consiguió despegar aunque no pudo elevarse. El inventor francés Alphonse Penaud fabricó un modelo que se lanzaba con la mano e iba propulsado por bandas de goma retorcidas previamente y consiguió en el año 1871 que volase unos 35 metros. Otro inventor francés, Victor Tatin, diseñó un ingenio propulsado por aire comprimido y equipado con un rudimentario tren de aterrizaje de cuatro ruedas. Lo sujetó a un poste central y las dos hélices consiguieron elevar el aparato en vuelos cortos y de baja altura. El inventor británico nacido en Australia, Lawrence Hargrave, desarrolló un modelo de alas rígidas que iba impulsado por paletas batientes movidas por un motor de aire comprimido. Voló 95 metros en 1891. El astrónomo estadounidense Samuel Pierpont Langley fabricó en 1896 un monoplano en tándem impulsado por un motor de vapor cuyas alas tenían una envergadura de 4,6 metros. El aeroplano hizo varios vuelos, recorriendo entre 900 y 1.200 metros de distancia durante un minuto y medio. Subía en grandes círculos; luego, al pararse el motor, descendía lentamente para posarse en las aguas del río Potomac. Se hicieron numerosos esfuerzos para imitar el vuelo de las aves con experimentos basados en paletas o alas movidas por los músculos humanos, pero nadie lo logró. Merecen citarse el austriaco Jacob Degen entre 1806 y 1813, el belga Vincent DeGroof, que se estrelló y murió en 1874 y el estadounidense R. J. Spaulding quien patentó su idea del vuelo empujado por músculos en 1889. Más éxito tuvieron quienes se dedicaron al estudio de los planeadores y contribuyeron al diseño de las alas, como el francés Jean Marie Le Bris, quien probó un planeador con las alas batientes, el estadounidense John Joseph Montgomery y el renombrado alemán Otto Lilienthal. Lilienthal realizó sus experimentos con cometas y ornitópteros pero los mayores éxitos los obtuvo con sus vuelos en planeador entre l894 y 1896. Por desgracia murió en 1896 al perder el control de su aparato y estrellarse contra el suelo desde 20 metros de altura. Percy S. Pilcher, de Escocia, que también había obtenido grandes éxitos con su planeador, tuvo asimismo un accidente mortal en 1899. El ingeniero estadounidense Octave Chanute consiguió en 1896 pequeños logros con sus planeadores de alas múltiples, pero su contribución más notable a la aviación fue su libro sobre los avances aeronáuticos Progress in Flying Machines (1894). Los numerosos experimentos realizados con cometas durante esta época, consiguieron mejorar de forma notable los conocimientos sobre aerodinámica y estabilidad del vuelo. El inventor estadounidense James Means publicó sus resultados en los Aeronautical Annuals de 1895, 1896 y 1897. Lawrence Hargrave inventó en 1893 la cometa en forma de caja y Alexander Graham Bell desarrolló entre 1895 y 1910 diversas cometas en forma de tetraedro capaces de transportar a un ser humano en un pequeño alojamiento. Entre 1890 y 1901 se realizaron numerosos experimentos con prototipos provistos de motor. El más importante fue el de Langley que en 1901 y 1903 probó e hizo volar sin piloto un aeroplano a un cuarto de escala de su tamaño real. Le llamó Aerodrome y fue la primera aeronave más pesada que el aire provista de un motor de gasolina que consiguió volar. El modelo a escala real se terminó en 1903 y realizó dos pruebas que acabaron en desgraciados accidentes. El aviador alemán Karl Jatho intentó en 1903, también sin éxito, volar un modelo motorizado de tamaño real. Los logros conseguidos a lo largo del siglo XIX aportaron los fundamentos necesarios para el éxito de los hermanos Wright, pero los mayores avances se debieron a los esfuerzos de Chanute, Lilienthal y Langley a partir de 1885. En 1903 aún no se habían conseguido la estabilidad y el control necesarios para un vuelo prolongado, pero los conocimientos aerodinámicos y sobre todo el éxito de los motores de gasolina, que sustituyeron a los más pesados de vapor, permitirían que la aviación evolucionase con rapidez. El día 17 de diciembre de 1903, cerca de Kitty Hawk, en el estado de Carolina del Norte, los hermanos estadounidenses Wilbur y Orville Wright realizaron el primer vuelo pilotado de una aeronave más pesada que el aire propulsada por motor. El avión fue diseñado, construido y volado por ambos hermanos, quienes realizaron dos vuelos cada uno. El más largo fue el de Wilbur con 260 metros recorridos en 59 segundos. Al año siguiente continuaron mejorando el diseño del avión y su experiencia como pilotos a lo largo de 105 vuelos, algunos de más de 5 minutos. En 1905 llegaron a recorrer 38,9 kilómetros en 38 minutos y 3 segundos. Todos los vuelos se realizaron en campo abierto, regresando casi siempre cerca del punto de despegue. Hasta 1906 nadie más consiguió volar en un avión. En ese año el húngaro residente en París, Trajan Vuia, realizó algunos saltos muy cortos y también lo consiguió Jacob Christian Ellehammer en Dinamarca. El primer vuelo oficialmente registrado en Europa lo hizo en Francia el brasileño Alberto Santos Dumont y su trayecto más largo lo logró el 12 de noviembre de 1906 cubriendo una distancia de 220 metros en 22,5 segundos. El aeroplano, registrado como 14-bis, había sido diseñado por él y construido en la primera fábrica de aviones del mundo, la de los hermanos Voisin en París. Su forma era la de una gran cometa en forma de caja en la parte trasera y otra pequeña en la delantera, unidas por la estructura cubierta de tela. El motor era un Levavasseur Antoinette de 40 CV y estaba ubicado junto con la hélice en la parte posterior. El piloto iba de pie en una cesta situada delante del ala principal. En Europa nadie consiguió volar más de un minuto hasta finales de 1907, en que lo logró Henri Farman en un avión construido también por Voisin. En contraste con Europa, los hermanos Wright conseguían en Estados Unidos superar sus marcas día a día. El 3 de septiembre de 1908, Orville Wright hizo una demostración con un modelo más veloz para el Cuerpo de Señales del Ejército en Fort Meyer, Virginia. El 9 de septiembre completó el primer vuelo mundial de más de una hora y también por primera vez se transportó un pasajero, el teniente Frank P. Lamh, durante 6 minutos y 24 segundos. Estas demostraciones se interrumpieron el 17 de septiembre a causa de un accidente en el que resultaron heridos Orville y su pasajero el teniente Thomas E. Selfridge, quien murió horas después a consecuencia de una conmoción cerebral. Fue la primera persona muerta en accidente de avión propulsado por motor. Entretanto Wilbur Wright, que había ido a Francia en agosto, completó, el 31 de diciembre, un vuelo de 2 horas y 20 minutos demostrando un control total de su avión con suaves virajes, subidas y descensos a su entera voluntad. Recuperado de sus heridas y con la colaboración de Wilbur, Orville reanudó las demostraciones para el Cuerpo de Señales en julio de 1909 y cumplió sus requisitos a finales de mes. El aeroplano fue comprado el 2 de agosto y se convirtió en el primer avión militar operativo de la historia. Permaneció en servicio activo durante dos años y después fue retirado y trasladado a la Institución Smithsonian en la ciudad de Washington donde puede contemplarse todavía. Una figura importante entre los diseñadores, fabricantes y pilotos estadounidenses fue Glenn Hammond Curtiss, de Hammondsport, Nueva York. En 1907 realizó en solitario un vuelo en el dirigible construido por Thomas Baldwin, propulsado por un motor de motocicleta de la fábrica de Curtiss que él mismo había modificado. En mayo siguiente Curtiss voló, también en solitario, el aeroplano diseñado y fabricado por un grupo conocido como la Asociación de Experimentos Aéreos, organizada por Alexander Graham Bell. Curtiss era uno de sus cinco miembros. Con su tercer avión, el June Bug, el 4 de julio de 1908 Curtiss cubrió la distancia de 1.552 metros en 42,5 segundos y ganó el Trofeo Científico Americano, primer premio estadounidense concedido al vuelo de un avión. En Reims, Francia, el 28 de agosto del año siguiente, Curtiss ganó el primer torneo internacional de velocidad, al conseguir una marca de 75,6 km/h. El 29 de mayo de 1910 ganó también el premio New York World, dotado con 10.000 dólares, por realizar el trayecto desde Albany, en el estado de Nueva York, hasta la ciudad de Nueva York; y en agosto completó el trayecto desde Cleveland a Sandusky, Ohio, sobrevolando la costa del lago Erie. En enero de 1911 consiguió ser el primer americano en desarrollar y volar un hidroavión. En Europa lo había conseguido el 28 de marzo de 1910 el francés Henri Fabre. El pionero en cruzar el Canal de la Mancha fue el ingeniero y piloto francés Louis Blériot. El día 25 de julio de 1909, durante 35,5 minutos recorrió 37 kilómetros, desde Calais, Francia, a Dover, Inglaterra, en un avión monoplano diseñado y fabricado por él mismo. Durante los años posteriores a la I Guerra Mundial se realizaron grandes progresos tanto en el diseño de los aeroplanos como de los motores. Los aviones de dos alas con los motores y las hélices situadas en la parte posterior pronto fueron sustituidos por aviones con los motores situados en la parte delantera. Había muy pocos modelos de monoplanos, pero en cambio durante la guerra ambos contendientes fabricaron enormes biplanos con dos, tres y hasta cuatro motores que en Europa fueron al principio del tipo rotativo, aunque pronto se sustituyeron por los modelos radiales. En Gran Bretaña y Estados Unidos predominaron los motores refrigerados por agua. El transporte aéreo de correo se aprobó oficialmente en Estados Unidos en el año 1911 y se realizó el primer vuelo el 23 de septiembre. El piloto, Earle Ovington, llevó la saca de correos en sus rodillas en un vuelo que tan sólo duró 5 minutos y recorrió los 8 kilómetros que hay entre el bulevar Nassau y Mineola, ambos en Long Island, Nueva York. Ovington lanzó la saca sobre Mineola, donde fue recogida y trasladada a la oficina de correos. El servicio duró sólo una semana. En 1911 se completó el primer vuelo transcontinental en Estados Unidos, desde la ciudad de Nueva York hasta Long Beach en California. Lo consiguió el piloto estadounidense Calbraith P. Rodgers. Salió de Sheepshead Bay, en Brooklyn, Nueva York, el 17 de septiembre, al mando de un aeroplano Wright, y aterrizó en su destino el 10 de diciembre, 84 días más tarde. El tiempo real de vuelo fue de 3 días, 10 horas y 14 minutos. Avion de Transporte En Europa el avión fue usado para transporte de pasajeros en el año 1919, mientras que en Estados Unidos los primeros vuelos de la aviación comercial se dedicaron principalmente al correo. Los vuelos de pasajeros aumentaron en rutas como la de Londres a París, se introdujeron en Estados Unidos a partir de 1927 y crecieron más deprisa gracias a la aparición de aviones seguros y confortables como el Douglas DC-3. Este avión iba propulsado por dos motores de hélice y podía transportar 21 pasajeros a una velocidad de crucero de 300 km/h. Todavía se puede ver volando por los cielos de muchos países. Poco después aparecieron los aviones cuatrimotores que podían volar aún más de prisa, subir más alto y llegar más lejos. El siguiente paso se dio en 1950, con el Vickers Viscount británico, primer avión impulsado por hélice movida por turbina a gas. Los aviones para cubrir un servicio se eligen en función de dos factores: el volumen de tráfico y la distancia entre los aeropuertos a los que sirve. La distancia entre aeropuertos se conoce como recorrido y hay un elevado número de aviones que pueden operar entre 400 y 11.000 kilómetros. Los reactores comerciales de pasajeros se usaron al principio para recorridos de larga distancia. El avión británico De Havilland Comet inició su servicio en 1952, y el Boeing 707 en 1958. A finales de la década de 1950 apareció el Douglas DC-8 y los Convair 880 y 990. Estos aviones desarrollaban una velocidad de crucero aproximada de 900 km/h y transportaban más de 100 pasajeros. El Caravelle francés, el De Havilland Trident inglés y el Boeing 727 estadounidense, todos ellos más pequeños y diseñados con los motores en la cola, se construyeron para cubrir líneas de medio recorrido, entre 800 y 2.400 kilómetros. A mediados de la década de 1960 aparecieron birreactores aún más pequeños para operar en trayectos de corto recorrido, como el Boeing 737, el DC-9, el Fokker F-28 y el BAC-111. El Boeing 747 entró en servicio en el año 1970 y fue el primer avión comercial de fuselaje ancho. Sirve en trayectos de media y larga distancia y alta densidad. Utiliza motores turbofán y vuela en crucero a unos 900 km/h. Normalmente transporta 400 pasajeros, llegando hasta 500 en algunas versiones. El Douglas DC-10 y el Lockheed 1011 Tristar son también grandes aviones con capacidades próximas a los 300 pasajeros. Ambos van empujados por tres motores montados en la cola. Se diseñaron para cubrir trayectos como el de Chicago-Los Ángeles y otros de recorrido similar. El primer DC-10 voló en 1971 y el L-1011 en 1972. Mientras, en Europa, el primer avión birreactor de fuselaje ancho, Airbus A300, realizaba su primer vuelo en el mismo año. Airbus es un consorcio de empresas de distintos países europeos como España, Francia y Reino Unido entre otros. El avión supersónico comercial o SST constituye la cima en el desarrollo de la tecnología aeronáutica y permite cruzar el Atlántico Norte y regresar de nuevo en menos tiempo de lo que un reactor subsónico tarda en hacer uno de los trayectos. El supersónico soviético TU-144, que fue el primero en entrar en servicio en 1975, realizaba vuelos regulares de carga en la URSS. En 1962 los gobiernos del Reino Unido y Francia firmaron un acuerdo para desarrollar y construir el proyecto del avión supersónico Concorde. El primer vuelo de prueba se hizo en 1971 y el certificado de aeronavegabilidad se firmó en 1975. El primer vuelo comercial del avión francés fue desde París a Río de Janeiro, con escala en Dakar, y del inglés desde Londres a Bahrain. En sus inicios el proyecto SST fue criticado por ser antieconómico y muy ruidoso. A pesar de las objeciones, el servicio a los Estados Unidos comenzó el 24 de mayo de 1976, con vuelos simultáneos desde Londres y París al aeropuerto internacional Dulles cerca de la ciudad de Washington y a Nueva York (22 de noviembre de 1977). Excepto en los países de la antigua URSS, los vuelos SST deben realizarse a velocidades subsónicas cuando pasan por zonas habitadas. Las pérdidas de explotación del Concorde superaron los 500 millones de libras y dejó de fabricarse en 1979. Los aviones franceses han extendido sus servicios desde París a Caracas (Venezuela) y a Dakar (Senegal). A pesar del fracaso comercial del Concorde, los fabricantes y operadores están interesados en una posible segunda generación de aviones supersónicos. Entretanto hay una enorme competencia entre los fabricantes de aviones reactores subsónicos avanzados como los Boeing 757, 767 y 777 y los Airbus A-320, 330 y 340. El A-320 ha sido el primer avión comercial en usar el sistema de control completamente automático fly-by-wire. El avión cuatrimotor de largo recorrido A-340 y el trimotor McDonnell-Douglas MD-11 son los competidores del Boeing 747 mientras el bimotor de fuselaje ancho A330 y el Boeing 777 concurren en el mercado de alta densidad y medio recorrido donde ya competían el Boeing 767 y el Airbus A300/310. Los aviones de carga han conocido una expansión sin precedentes desde la II Guerra Mundial. Los primeros aeroplanos de carga fueron los Canadair CL-44 y el Armstrong-Whitworth Argosy, a los que siguieron versiones de los grandes aviones de pasajeros modificados para carga, que son los usados actualmente.


EDWIN GIOVANNY DULCEY LEÒN 11-02



EL AUTOMOVIL




El primer paso fueron los vehículos propulsados a vapor. Se cree que los intentos iniciales de producirlos se llevaron a cabo en China, a fines del siglo XVII, pero los registros documentales más antiguos sobre el uso de esta fuerza motriz datan de 1769, cuando el escritor e inventor francés Nicholas-Joseph Cugnot presentó el primer vehículo propulsado a vapor. Era un triciclo de unas 4,5 toneladas, con ruedas de madera y llantas de hierro, cuyo motor estaba montado sobre los cigüeñales de las ruedas de un carro para transportar cañones. Su prototipo se estrelló y una segunda máquina quedó destruida en 1771, pero la idea sería retomada y desarrollada en Inglaterra en los años siguientes. Hasta 1840, se construyeron en este país más de 40 coches y tractores propulsados a vapor. Por 1836, incluso, circulaban regularmente unas 9 diligencias a vapor, capaces de transportar cada una entre 10 y 20 pasajeros a unos 24 km./h. La búsqueda se concentraba en alguna forma más práctica de mover los coches autopropulsados. Y la solución apareció nuevamente en Europa en 1860, cuando el belga Etienne Lenoir patentó en Francia el primer motor a explosión capaz de ser usado sobre ideas aparecidas en Inglaterra a fines del siglo XVIII. El camino estaba trazado, pero habrían de pasar otros seis años hasta que el alemán Gottlieb Daimler construyera en 1866 el primer automóvil propulsado por un motor de combustión interna. Su prototipo era un gigante de casi dos toneladas de peso que fue presentado en la Exposición de París de 1867 por su patrón, el industrial alemán Nicholas Otto. Fue la base de la nueva industria. Tras años de trabajo, el mismo Daimler ideó una variante de apenas 41 kg. que sería el precursor de todos los motores posteriores a explosión. Sobre esta planta motriz el ingeniero mecánico Karl Benz (1 844-l 929) diseñó el primer vehículo utilizable impulsado por un motor de combustión interna; era un pequeño triciclo que empezó a funcionar a principios de 1885 y fue patentado el 26 de enero de 1886. El mismo Benz presentó un primer automóvil de cuatro ruedas con su marca en 1893 y construyó un coche de carrera en 1899. Pero si bien su empresa había sido pionera, a principios del nuevo siglo había quedado algo relegada por negarse a incorporar los adelantos más modernos logrados por otros precursores, como Daimler y su socio, Wilhelm Maybach. Todo lo cual hizo que en 1926 se fusionara eón la Daimler Motoren Gesellschaft para integrar la Daimler-Benz, que sería la predecesora de la famosísima Mercedes Benz. Con los primeros años del siglo XIX se agudiza la competencia entre las nacientes fábricas y también la preocupación por mejorar los diferentes sistemas del automóvil, como frenos, amortiguadores, carburación, transmisión y arranques. La rueda inflable había sido inventada en 1875 por el escocés Robert W. Thompson, pero ya la había mejorado un veterinario compatriota suyo, John Boyd Dunlop, quien en 1888 patentó un neumático que pasa a utilizarse en automóviles y bicicletas. En 1897 y luego de años de esfuerzos, Robert Bosch consiguió desarrollar un magneto de encendido de aplicación práctica y casi simultáneamente comenzó a funcionar el motor de autoencendido de Rudolf Diesel, que no requería de un sistema eléctrico de ignición. De paso, digamos que el combustible para los motores comunes no era problema, porque otro alemán, el profesor de química Eilhard Mitscherlich había descubierto la bencina en 1833, con lo cual ya estaba disponible el hidrocarburo liquido que pasó a llamarse nafta por derivación de un vocablo ruso: naphta. Era una época prolífica para el automóvil. En las postrimerías del siglo XIX, un joven francés llamado Louis Renault armó su primer auto en un taller instalado en los fondos de la casa de sus padres. En 1892, el norteamericano Henry Ford armó su primera máquina rodante con motor a nafta y en 1908 lanzó el Ford T, pero su nombre acapararía la fama sólo cuando a partir de 1913 disminuyó significativamente los costos al instalar en su fábrica de Highland Park la primera cadena de montaje, denominada así porque realmente consistía en una cadena metálica que se enganchaba en el chasis. Ford vendió 15.000.000 de unidades de su Ford T entre 1908y 1928 y su marca sólo sería batida en 1972 por otro popular automóvil, el Escarabajo de Volkswagen. Junto a Renault y Ford, sin embargo, habría que nombrar también a otros pioneros que forjaron la historia del automóvil. Por ejemplo, el aristócrata y corredor de carreras Charles Stuart Rolís, Ettore Bugatti, Ferdinand Porsche, Armand Peugeot, André Citroën, Ferrucio Lamborghini, Enzo Ferrari. Con ellos y quienes los siguieron fue construyéndose la era del auto moderno, ése que todavía hoy, más o menos aerodinámico, vemos andando por la calle.
EDWIN GIOVANNY DULCEY LEÒN 11-02

metales inteligentes


El Corporate Research Centre (CRC) de EADS en Ottobrunn junto con sus organismos y empresas asociadas, el CRC viene ocupándose desde hace muchos años del desarrollo de las denominadas “aleaciones con memoria de forma” (en inglés, shape memory alloys). Este tipo de metales inteligentes ya ha conquistado múltiples sectores, empleándose en el sector aeroespacial para mecanismos de desacoplamiento y conexiones de tubos, así como en cirugía, por ejemplo, para el ensanchamiento de vasos sanguíneos mediante stents. También existen aplicaciones más cotidianas, como monturas de gafas de gran elasticidad y aros de los sujetadores.

La explicación científica del “efecto memoria” es que se crea a temperaturas muy por debajo del punto de fusión, por medio de un cambio de fase -- reversible -- en estado sólido, llevado a cabo mediante plegado o cizallamiento de la estructura cristalina. Explica Schuster: “Suelo comparar este proceso con las piezas del dominó: todas ellas se caen. Lo que sucede en nuestras aleaciones es que, por así decirlo, vuelven a ponerse en pie”.

publica :Moises Caseres Chacon 11:2



Entre las aleaciones “con cociente intelectual incorporado” se encuentran las de níquel-titanio, cobre-cinc-aluminio y oro-cadmio. En función de la gama de temperatura, que puede ajustarse a través de la composición de la aleación y deun “entrenamiento” termomecánico, se presentan distintos efectos. Las deformaciones aparecidas en la fase de bajas temperaturas pueden anularse una sola vez calentándolas hasta alcanzar la fase de altas temperaturas. Este efecto unidireccional (efecto simple) se aprovecha por ejemplo en los elementos de union para tubos que desarrollaron conjuntamente el CRC y EADS Astrium, que se aplican a las conducciones de combustible de los satélites. Al calentar lasuniones previamente ensanchadas éstas se fijan mediante contracción sobre los tubos del empalme, logrando una gran fuerza de sujeción. Cuando una aleación inteligente muestra un cambio de forma al calentarla o enfriarla sin que exista intervención de una fuerza externa, nos encontramos ante el denominado “doble efecto”.

Un vistazo a Android 1.6 y Android Market


La Agencia de Seguridad Nacional estadounidense (NSA), donde se espía, interceptan y guardan comunicaciones y documentos de todo el planeta en todos los formatos imaginables, podría estar preparándose para almacenar información al nivel de Yottabytes (1024 Bytes) hacia el año 2015.

En términos más abarcables: un Yottabyte es un billón de Terabytes, o un millón de Exabytes, que a su vez es un millón de Terabytes, el tamaño de un disco duro convencional en un equipo de sobremesa potente de hoy en día. Es decir, que la capacidad de almacenamiento digital de la NSA en unos años sería de un millón de millones de veces la de un ordenador convencional.

En 2005 se calculó que la información digitalizada que existía en todo el planeta hasta entonces era de solo unos 5 exabytes. La vida completa de una persona se podría almacenar en alta resolución en unos cinco Petabytes (5 millones de Gigabytes).

Antes de la llegada de la informática, la NSA tuvo grandes problemas en su ansia por interceptar información y guardarla en papel. Uno de ellos, altamente curioso, era cómo destruirla una vez era considerada inservible. Para ello tuvo que rodear sus instalaciones de grandes incineradoras con las que quemar las toneladas y toneladas diarias de documentos inútiles, y ni aun así daban a basto. Entre esos documentos se incluían copias de todos los telegramas y télex internacionales que entraban y salían del país, además de todos los que eran interceptados a nivel internacional. Luego el problema pasaron a ser las cintas magnéticas y otros soportes de la era moderna. Otro problema para la NSA, y no menor, es la factura de electricidad que requiere todo ese almacenamiento, que se ha cifrado en unos 70 millones de dólares anuales. Esta y otras historias interesantes están en Body of Screts y The Puzzle Palace.

El problema ahora no es tanto la destrucción de esa información como su utilidad real una vez se ha almacenado: cómo buscar lo datos y encontrarlos en un tiempo razonable y cómo relacionar unas piezas de información con otras. Ese almacenamiento sin más ya se se demostró bastante inútil cuando se produjeron tanto los ataques del 11-S como otros a nivel internacional, sin que los datos previos de inteligencia permitieran prevenirlos o evitarlos.

La fuente de estos datos es un informe del think tank MITRE Corporation, que comentó el experto en la NSA James Bamford (autor de los libros mencionados), vía Scheiner.

por:Diego Ordoñez Vargas

El Declive Molecular de un Gen Apoya la Teoría de la Evolución de Darwin


Unos biólogos de la Universidad de California en Riverside han informado sobre una nueva evidencia del cambio evolutivo, recogida tanto en el registro fósil como en los genomas de organismos vivientes, proporcionando ello un nuevo apoyo a la teoría de la evolución de Charles Darwin.


Los investigadores fueron capaces de correlacionar la pérdida progresiva de esmalte en el registro fósil con un declive molecular simultáneo de un gen, llamado Enamelin, que está implicado en la formación de esmalte en los mamíferos.

El biólogo Mark Springer ha dirigido el estudio.

El esmalte es la sustancia más dura del cuerpo de los vertebrados, y recubre los dientes de la mayoría de los mamíferos.

Sin embargo, existen ejemplos de mamíferos sin dientes mineralizados y de mamíferos con dientes que no tienen esmalte. Además, el registro fósil documenta cuándo estos linajes perdieron el esmalte.



En 2007, Springer, Robert Meredith y John Gatesy iniciaron un estudio sobre los mamíferos que carecen de esmalte, en el que los investigadores se concentraron en el gen Enamelin. Ellos predijeron que estas especies tendrían copias del gen que codifica para la proteína Enamelin específica de los dientes, pero que este gen mostraría evidencia, en organismos vivientes, de declive molecular, debido a que estos genes son meros remanentes sin utilidad actual para la supervivencia del individuo.

Ahora el laboratorio de Springer ha encontrado evidencia de tales rasgos moleculares en los genomas de organismos vivos. Los investigadores han descubierto mutaciones en el gen Enamelin que alteran la forma en que es codificada la proteína Enamelin, resultando ello en el borrado de buena parte del "plano de construcción" de dicha proteína.

Darwin afirmó que todos los organismos descienden de un organismo o de unos pocos, y que la selección natural dirige el cambio evolutivo. El registro fósil demuestra que los primeros mamíferos tenían dientes con esmalte. Los mamíferos que carecen de él deben descender por lo tanto de mamíferos con dientes cubiertos de esmalte.

Por: Diego Ordoñez Vargas

viernes, 16 de octubre de 2009

Casas inteligentes

El último punto a tratar, anteriormente mencionado, es el de las casas inteligentes. La crisis energética pasa por mejorar los rendimientos de cualquier aparato, y a su vez ahorrar energía de cualquier forma posible, desde cerrar el grifo de la electricidad de vez en cuando a no perder calor o idear sistemas automáticos de iluminación y calefacción que no requieran un plus de energía.


sistemas refrigeradores:
La refrigeración natural o pasiva tiene por objetivo fundamental el conseguir el enfriamiento de una vivienda actuando sobre el propio diseño arquitectónico del edificio, lo que representa un ahorro energético y económico importante en forma de aparatos condicionadores, y a la vez garantiza una mejora del confort térmico de las viviendas durante la época estival.
La refrigeración pasiva depende del clima del país y de las diferencias térmicas entre las estaciones. El clima mediterráneo se caracteriza por diferencias térmicas poco importantes entre invierno y verano, hecho que requiere un doble diseño arquitectónico que combine sistemas de captación solar con sistemas de refrigeración. Sólo diseñando conjuntamente con los dos criterios, obtendremos un comportamiento térmico global del edificio eficiente durante todo el año.
Al igual que los sistemas de captación, los sistemas de refrigeración se pueden clasificar en tres grupos: pérdida directa, indirecta y separada.
La refrigeración por pérdida directa incluye el enfriamiento por sombra o protección solar, la ventilación así como todos los procedimientos que enfrían el ambiente en ponerse en contacto con una fuente fría como evaporación, radiación y absorción por la masa térmica.
Los sistemas de sombra evitan la entrada directa de la radiación solar a las viviendas, lo que evita el sobrecalentamiento estival. Estos elementos pueden ser fijos o móviles como también pueden consistir en cristales reflectantes o absorbentes.
La ventilación natural es el sistema más utilizado en la mayoría de climas cálidos y húmedos por su funcionalidad. El movimiento del aire facilita la disipación del calor convirtiéndolo en un sistema útil para aumentar el confort térmico en el interior del edificio. El sistema más conocido y utilizado es el de ventilación cruzada o inducida, que consiste en la facilitación de la circulación de aire dentro de los edificios con grandes oberturas de entrada y salida de aire y evitando interponer obstáculos entre dichas aperturas. Otros sistemas son la chimenea solar o la torre de viento.
Existen otros métodos de refrigeración por pérdida directa como son los sistemas de evaporación y absorción por masa térmica. La evaporación consiste en disminuir la temperatura del ambiente utilizando fuentes de agua cercanas al edificio. La absorción del calor por la masa térmica consiste en diseñar edificios de manera que la masa del mismo edificio pueda absorber el calor del interior durante el día, y darla por la noche. El ejemplo mas conocido de esta técnica es el construir casas medio enterradas.
La refrigeración por pérdida separada obtiene el aire fresco en una zona separada del edifico a refrigerar como la tierra o un volumen de agua. El procedimiento se basa en hacer circular el aire exterior por un tubo enterrado o que atraviese el agua, el aire se enfriará más como más largo sea su recorrido antes de ser introducido en el edificio.
publicado por :Moises Caseres chacon 11:2

LA PERFECCIÒN DEL HOMBRE







Muchos personas que se encuentran en el área tecnológica – científica (esta última especialmente) consideran que los avances que se están dando actualmente y los proyectos futuros, son simplemente muestras de la capacidad del hombre y que además será un elemento para “perfeccionarlo o mejorar” al hombre en general.

Lo que ahora me pregunto es: ¿De qué se trata este avance para el perfeccionamiento?

-Cuando se inventaron los vehículos, se cree que mejoraron la vida de todas las personas, algo que tal vez es muy cierto por la facilidad y comodidad que de ello resulta, pero ¿Han aumentado los peligros al volante? ¿No vemos que los vehículos actuales con un choque se deshacen, porque el material es de lata? ¿Qué pasa con las personas que mueren día a día gracias a esto? Si bien los aviones son un gran invento, ¿Cuánta gente muere al año en accidentes de avión? Parece que a media que los inventos del transporte avanzan, existe una ecuación que su resultado es proporcional al avance, ¿Será cierto?


EDWIN GIOVANNY DULCEY LEÒN 11-02

Aviones sin ruido


Según un artículo publicado el 7 de noviembre de 2006, un grupo de ingenieros ha desvelado lo que esperan será el futuro de las aerolíneas comerciales: una aeronave tan silenciosa que nadie podrá oirá nada fuera del aeropuerto.

El SAX-40 consumirá un 25% menos de fuel que los aviones modernos y podrá llevar 215 pasajeros hasta 5.000 millas náuticas (9.250km) a una velocidad máxima de 965km/h. El concepto de diseño de ala combinada, que llegará al servicio comercial en el 2030, es el resultado de la iniciativa Silent Aircraft Initiative (SAI), un proyecto de colaboración de tres años y 2,3 millones de libras, entre la Universidad de Cambridge y el Instituto Tecnológico de Massachusetts.

Aunque las líneas aéreas llevan en funcionamiento más de medio siglo, el diseño básico de las aeronaves no ha cambiado: un tubo a modo de fuselaje con motores colgando bajo las alas. La forma del SAX-40 es más aerodinámica, con lo cual
produce menos turbulencias y, por tanto, menos ruido.

Con cientos de micrófonos, los ingenieros comprobaron el sonido que producen muchos de los nuevos componentes. Su simulación predijo que el ruido del nuevo avión sería de 63 decibelios en el perímetro del aeropuerto, el equivalente al de una calle concurrida.

“Es el diseño integral del sistema lo que permite el bajo nivel de ruido y no una tecnología concreta”, afima Zoltan Spakovsky, del MIT. La idea principal para reducir el ruido ha sido la de poner los motores sobre el cuerpo del avión, de este modo el fuselaje refleja las ondas sonoras hacia arriba, alejándolas del suelo. Además, se han simplificado las alas, eliminando los flaps y slats, una de las principales fuentes de ruido durante el aterrizaje de un avión.

Otras ideas han sido forrar los motores con materiales que absorben el sonido y hacerlos más largos, de modo que es posible añadir silenciadores acústicos en sus extremos. También cuentan con boquillas ajustables que retienen el ruido durante el despegue y se abren, posteriormente, a una altitud de navegación para maximizar la eficiencia del combustible.
publica;Moises Caseres Chacon 11:2

LOS 10 MAYORES AVANCES CIENTIFICOS


Bienvenido al primer ranking anual de los 10 logros científicos más importantes (en opinión de Wired News). El 2007 ha sido un año asombroso para la ciencia, al contrario que con el 2006, no ha habido casos de fraude científico de alto grado – al menos ninguno que no haya sido desenmascarado. Las publicaciones científicas han tomado precauciones extras, requiriendo que los científicos pudieran replicar sus resultados en un esfuerzo encaminado a evitar los fiascos científicos. Aquí os ofrecemos una cuenta atrás de los 10 descubrimientos científicos que sacudieron más contundentemente nuestro mundo durante este año.

10.
Los transistores se minuaturizan aún más
En enero Intel anunció que el elemento hafnio y algunas nuevas aleaciones les permitiría hacer aún mas pequeños los millones de interruptores de sus microprocesadores. Gordon Moore, coofundador de la empresa y padre de la ley que lleva su nombre, anunció este logro como el mayor en tecnología de transistores desde la década de 1960. La reducción de tamaño (de los 65 nanómetros estándar a los 45) no es el único aspecto positivo, este nuevo tipo de transistores serán mucho más eficientes energéticamente. Intel empezó el pasado mes a usar esta tecnología (llamada Penryn) en servidores de alta gama. Los usuarios domésticos podremos acceder a esta tecnología a comienzos del año que viene.

9
. Científicos clonan a un mono rhesus para producir células madre
En la Universidad de Oregón, Shoulkhrat Mitalipov y su equipo clonó un macaco rhesus y empleó el embrión resultante para crear células madre. Hasta entonces, este impresionante logro solo se había conseguido con ratones. En noviembre, el equipo informó en Nature sobre una clave sorprendente en su éxito: evitar la luz ultravioleta y los colorantes (herramientas que siempre se usan en experimentos de clonación) ya que pueden dañar a las delicadas células.

Las células madre podrían usarse para reparar casi cualquier órgano dañado, pero son inútiles si despiertan al sistema inmune. Clonando al propio paciente enfermo, y usando luego las células madre derivadas de sus propio cuerpo, los doctores podrían evitar los problemas a los que se enfrentan normalmente los pacientes que reciben un órgano transplantado. Pero algunos científicos creen que el descubrimiento nº1 de nuestra lista hace innecesaria la clonación; otros no obstante (como los investigadores en células madre de Harvard) creen que la clonación sigue siendo necesaria.

8.
Descubren planeta que podría albergar vida
Los entusiastas de la astrobiología han tenido varios motivos de regocijo este año, pero uno de ellos ha resultado controvertido en cierto aspecto. Después de que Stéphane Udry y sus colegas descubrieran un par de planetas que en su opinión podrían albergar vida, otros investigadores disputaron sobre cual de los dos sería más habitable, aunque todos estuvieron de acuerdo en que los sistemas solares distantes merecen ser sujeto de nuevos estudios. Usando un telescopio espacial canadiense y el Observatorio Europeo del Sur (ESO) en Chile, Udry dedujo que el objeto más prometedor es ligeramente más grande que la Tierra, da una vuelta completa a su sol cada 18 días y podría ser rocoso. En una edición de finales de abril de la revista Astronomy and Astrophysics, el profesor de la Universidad de Ginebra aportó detalles sobre esta sofisticada investigación. Ambos cuerpos celestes orbitan a la estrella enana roja Gliese 581, que se encuentra a solo 20 años luz de la Tierra. Aunque las perspectivas para ambos mundos podrían ser menos esperanzadoras de lo que Udry y sus socios pensaron, los métodos empleados para localizar pequeños planetas podrían emplearse para realizar nuevos descubrimientos.

7. Ingenieros crean material transparente tan fuerte como el acero
Investigadores en ingeniería de materiales de la Universidad de Michigan han creado un material similar al “aluminio transparente”, la fantástica substancia descrita por Scotty en Star Trek IV. En la edición del 5 de octubre de la revista Science, Nicholas Kotov demostró que la arcilla es buena para mucho más que hacer ladrillos y productos baratos para el cuidado facial. Este material terroso se compone de partículas de tamaño nanométrico extraordinariamente fuertes. Cuando se las dispone cuidadosamente entre finas capas de una débil sustancia plástica, los diminutos pedazos de suciedad actúan como el mayor de los refuerzos, dando a este ordinario material una resistencia extraordinaria. Este robusto compuesto podría emplearse para hacer armaduras ligeras o aeronaves.

6. Analizan tejidos blandos en el fémur de tiranosaurio
Esta primavera, el paciente más anciano del departamento de patología del Centro Médico Beth Israel Deaconess de Boston era un tiranosaurio de 68 millones de años. Por primera vez, los científicos han analizado moléculas biológicas de las criaturas del jurásico. Trabajando con tejidos blandos encontrados en un fémur extremadamente bien conservado entre los sedimentos prehistóricos de Montana, John Asara encontró la receta de una proteína que servía como elemento estructural elástico en los huesos de los dinosaurios. En el número del 13 de abril de la revista Science, Asara y sus colegas compararon al mortífero depredador con los animales que vagan hoy en día por la Tierra, y concluyeron que tienen mucho en común con los pollos.

5. Curan el Síndrome de Rett en ratones de laboratorio
Investigadores relacionados con el Trust Wellcome han mostrado evidencias de que el Síndrome de Rett, un trastorno del desarrollo neurológico que aflige a una de cada 10.000 niñas nacidas, podría ser curable. Provocado por una mutación, el desorden evita que las niñas que lo sufren caminen o hablen, y les provoca unos temblores terribles. Tras crear un ratón con una aflicción similar, Adrian Bird y sus colegas de la Universidad de Edimburgo y de la Universidad de Glasgow comprobaron los efectos provocados tras reparar cierto gen incorrecto. En la edición del 23 de febrero de Science, explicaron que la enfermedad no provocaba daños permanentes en las células nerviosas, y que los temblores y los problemas de respiración de los ratones se detenían cuando se les forzaba a producir de forma normal el MeCP2; la proteína corrompida por la enfermedad.

4. Enzimas que convierten cualquier tipo de sangre en O
Varias crisis por falta de sangre tipo O en hospitales estadounidenses, subrayan la importancia de crear un tipo de sangre versátil. En las raras ocasiones en que una persona recibe una transfusión de sangre del tipo equivocado, la violenta reacción (causadas por las moléculas de azúcar ubicadas sobre la superficie de los glóbulos rojos) puede hacer que el sistema inmune deje de funcionar correctamente.

En abril, Henrik Clausen, profesor de la Universidad de Dinamarca, publicó un trabajo en la revista Nature en el que describía un método para convertir cualquier tipo de sangre en O (el tipo de sangre que casi todo el mundo puede tolerar). Clausen descubrió unas enzimas que “cortan” los problemáticos azúcares de las superficies de los glóbulos rojos de tipo A, B y AB. Producidas por bacterias, las máquinas moleculares podrían teóricamente convertir cualquier clase de sangre en tipo O. Clausen y sus colegas describieron la búsqueda de estas tranquilizadoras proteínas en la edición del 1 de abril de la revista Nature Biotechnology.

ZymeQuest, una compañía startup de Massachusetts, desarrolla en la actualidad un dispositivo para hospitales que pueda utilizarse durante las crisis de existencias.

3. Desentierran y analizan dinosaurio momificado
Paleontólogos de la inglesa Universidad de Manchester han desenterrado la momia casi intacta de un dinosaurio herbívoro. Preservado por los minerales durante 65 millones de años, el cuerpo petrificado se encuentra en unas condiciones tan pristinas, que los investigadores pudieron ver una tira de piel con su patrón de escamas. Este otoño, los científicos transportaron el hadrosaurio fosilizado a un escáner tomográfico gigante en Canoga Park, California, donde los técnicos capturaron varios terabytes de imágenes en 3D que han revelado sorpresas acerca de las masas musculares de la criatura y el espaciado de sus huesos. Tyler Lyson, ahora estudiante de graduado en geología en la Universidad de Yale, realizó el hallazgo inicial hace 7 años mientras buscaba fósiles en la formación rocosa Hell Creek de Dakota del Norte.

2.
Los Chimpances usan lanzas para cazar
Dos antropólogos observaron entre divertidos y horrorizados como varias hembras de chimpancé fabricaban lanzas y las usaban para cazar de forma brutal pequeños mamíferos. Siguiendo a un grupo de primates en la savana senegalesa, Jill Pruetz de la Universidad del estado de Iowa y Paco Bertolani de Cambdridge, los observaron romper las ramas de algunos árboles, retirar las hojas laterales y afilar las puntas. En la edición de marzo de la revista Current Biology, los científicos explicaron que un comportamiento animal así de sofisticado podría ofrecer una buena aproximación al modo en que los humanos primitivos emplearon sus herramientas.

1. Investigadores convierten células cutáneas en células madre
Empleando un virus para reprogramar células de la piel, dos equipos científicos lograron esquivar el más grande de los impedimentos éticos al que se enfrenta la medicina regenerativa: la destrucción de embriones humanos. Los dos grupos, dirigidos por Shinya Yamanaka de la Universidad de Kyoto y Junying Yu de la Universidad de Wisconsin, convencieron a un tipo de células dérmicas llamadas fibroblastos para que se convirtieran en tejido muscular, cardíaco, adiposo y nervioso sin usar ningún óvulo. Desafortunadamente, las células “pirateadas” se convierten a menudo en tumores. Continuando tras su descubrimiento inicial este noviembre, Yamanaka comentó en Nature Biotechnology que insertando tres genes del crecimiento en lugar de cuatro, los tejidos cultivados en laboratorio podían ser controlados sin devenir en cancerosos
.


PUBLICADO: EDWIN GIOVANNY DULCEY LEÒN 11-02

El genoma humano en 3D



Desplegado, el genoma humano tendría unos seis pies de ADN. Sorprendentemente, todo ese largo está enrollado en el núcleo de una célula de unos tres micrómetros de diámetro; aproximadamente, un tercio del ancho de un cabello humano.

Una nueva tecnología que permite evaluar las interacciones en tres dimensiones entre diferentes partes del genoma ha desvelado cómo están estas moléculas en un espacio tan diminuto. Los resultados podrían dar lugar también a nuevas pistas sobre la regulación del genoma: cómo se activan y desactivan genes específicos.

Aunque anteriormente los científicos han sido capaces de resolver la estructura tridimensional de las partes del genoma, este nuevo estudio es el primero en hacerlo en la escala del ancho del genoma. "Nuestra tecnología es una especie de IRM para genomas", señala Erez Lieberman-Aiden, investigador de la Harvard-MIT Division of Health Sciences and Technology y uno de los autores de un nuevo artículo que detalla el trabajo.

El ADN tiene múltiples niveles de organización: la secuencia lineal de bases, su famosa estructural helicoidal y formaciones de orden superior que lo envuelven alrededor de la proteínas y lo enrollan para formar los cromosomas; pero identificar cómo está organizado el ADN en estos niveles superiores a lo largo del genoma ha sido complicado. "Tenemos la secuencia lineal completa del genoma, pero nadie sabe siquiera los principios de cómo está organizado el ADN en el espacio de orden superior", señala Tom Misteli, científico del National Cancer Institute, de Bethesda, Maryland, quien no participó en el estudio.

Un fondo cada vez más amplio de investigaciones muestra también que esta organización es fundamental para regular la actividad genética. Por ejemplo, los genes se deben desenrollar previamente a su transcripción en proteínas. Y algunos genes se activan solo cuando se enlazan a secuencias de ADN en cromosomas totalmente diferentes, señala Misteli.

En un nuevo método, llamado Hi-C, los científicos utilizan primero un conservante como el formaldehído para fijar la estructura tridimensional de una molécula de ADN en su lugar. De este modo, las secuencias de los genes que están próximos entre sí en la estructura tridimensional, pero no necesariamente adyacentes en la secuencia lineal, se enlazan entre sí. El genoma fijado se divide, a continuación, en un millón de trozos utilizando una enzima que corta el ADN. Pero los segmentos de ADN que se unieron durante el proceso de fijación permanecen unidos.


por: Andres Enrique Quintero Santander

Investigadores consiguen regenerar un nervio óptico



Restauran" nervio óptico en ratones

Científicos en Estados Unidos aseguran haber regenerado los nervios ópticos dañados que conectan el ojo al cerebro de ratones.

Los expertos afirman que el proceso da nueva esperanza a las personas que sufren de glaucoma, una enfermedad que somete el nervio óptico a tanta presión que lo destruye.

La investigación, realizada por el Insitituto Schepens de Investigación del Ojo en la ciudad de Boston, aparece publicado en el Journal of Cell Science.

El director del estudio, doctor Dong Feng Chen dijo: "Esta es la primera vez que la ciencia regenera tantas fibras nerviosas a lo largo de una gran distancia para llegar a su objetivo y reparar un nervio considerado insalvable".

Daño permanente

Muchos tejidos del cuerpo se regeneran constantemente si son dañados.

Sin embargo, el nervio óptico, y otros tejidos del sistema nervioso central, no tienen esta habilidad, así que el daño es permanente.

El equipo del instituto Schepens ya había descubierto que la inhabilidad del nervio óptico para regenerarse estaba vinculada a un gen llamado BCL-2 cuando está inactivo.

También creen que el proceso de restauración está bloqueado desde el nacimiento, por una especie de cicatriz en el cerebro producida por células especializadas.

Los científicos criaron ratones en los que el gen BCL-2 siempre está activado.

Descubrieron que los animales podían regenerar el tejido del nervio óptico muy rápido, pero sólo cuando eran jóvenes y antes de que el cerebro produjera la cicatriz.

Jóvenes y viejos

Decidieron, entonces, no sólo criar ratones con el gen BCL-2 activo, sino inhabilitar la cre ación de la cicatriz.

El resultado fue positivo inclusive en animales viejos.

"Pudimos observar que por lo menos 40% del nervio óptico se había regenerado, pero creemos que fue aún más", aseguró el dr. Chen.

El siguiente paso será ver si los nervios regenerados son funcionales.

Los investigadores piensan que esta técnica puede ser utilizada para restaurar tejidos dañados de otras partes del sistema nervioso central, creando la posibilidad de que pacientes con daños a la médula espinal puedan caminar otra vez.

Otros científicos, sin embargo, optan por ser más cautelosos ya que regenerar el nervio óptico de ratones es cuestión de milímetros, mientras que con humanos las distancias son en las decenas de centímetros.


por: Diego Ordoñez Vargas

jueves, 15 de octubre de 2009

LA AEROLINEA


En la década de los años 30, la aviones eran aún construidos de la misma manera que en primera guerra mundial: una célula en forma de armazón (algunas aún de madera, aunque la mayoría la poseían formada de tubos de acero o aleación ligera), revestida con telas y tensadas por alambre. Los pocos aviones monoplanos existentes tenían un ala del tipo parasol.
En esta década comenzaron a surgir algunas importantes innovaciones en el diseño y en la construcción de aviones, entre las cuales destacamos[1]:


1) La construcción semimonocasco: en lugar de un revestimiento ligero sobre un armazón robusto, se comenzó a utilizar un revestimiento resistente en forma de caja compacta. Al inició está se hacía de madera, pero cuando se inicio su construcción en metal se abrió el camino hacia la estructura monocasco, que permitía diseñar aviones de líneas aerodinámicas más perfectas, con una solo plano de ala en voladizo (empotrada en el casco), sin riostras de sujeción. Los anteriores monoplanos no habían logrado conseguir los beneficios teóricos de esta eficiencia, al tener alas con perfiles muy gruesos o por el elevado número de montantes o riostras. Las alas de revestimiento metálico eran bastantes delgadas, y al mismo tiempo podían construirse totalmente en voladizo o “cantilever”.
2) Incremento en la potencia de los motores: pasando de una potencia de 500 hp en 1930 a los 1000 hp de 1935 y acercándose luego a los 2000hp. Su instalación resultó notablemente mejorada, especialmente en los radiales refrigerados por aire que, aunque más simples y compactos (lo que proporcionaba a los cazas mayor maniobrabilidad), y al ser de mejores prestaciones en climas muy fríos o muy cálidos. Hasta entonces se habían instalado tan toscamente, que no habían podido competir en velocidad con los motores de doce cilindros en V refrigerados por líquido. Las hélices, construidas hasta entonces de un único bloque de de madera laminada, se construyeron con palas independientes montadas sobre un buje que contenía un dispositivo que controlaba el paso de rotación de la hélice, pasando ahora a ser variable.
3) Tren de aterrizaje retráctil, adopción de cabinas cerradas: se había inventado ya en 1920, pero los aviones de principio de los 30 no lo llevaban. Al principio estos trenes de aterrizajes eran mecanismos complicados, luego se hicieron más simples y robustos. Las cabinas habían estado dotadas de techo corredizo desde 1914, pero la mayoría eran de celuloide, que no permitían una buena visibilidad a larga distancia, y por tanto eran rechazadas por los pilotos de caza. La radio, el oxígeno y los sistemas de vuelo nocturno se adoptarían paulatinamente en los años 30.


Polikarpov I 16, primer avión en servicio contren de aterrizaje reclinable.Además tenía construcción monocasco




En los primeros monoplanos, el exceso de carga de armamento obligó a diseñar alas con flaps ranurados y otros elementos hipersustentadores, que rompían la línea aerodinámica del diseño, y por lo tanto, su velocidad y eficiencia en combate. Estos elementos serían más tarde eliminados, como en el caso del Messerchimitt Bf-109 E al pasar su diseño al de Bf-109 F. Obviamente no todas las mejoras arriba señaladas se dieron en un mismo diseño a la vez, por ejemplo, el primer monoplano en entrar en servicio[2], desde la primera guerra mundial, fue el norteamericano Boeing P-26, contando aún con características “primitivas”, como el tren de aterrizaje fijo y alas con sistemas de riostras. El francés Dewoitine D.510, tenía alas con revestimiento metálico sin riostras y tren de aterrizaje fijo; algunos escuadrones franceses estaban equipados aún con este obsoleto caza al empezar la guerra. El modelo más destacado, en cuanto a lo avanzado de su diseño y que entro en servicio en grandes cantidades en la guerra civil española[3], el Polikarpov I-16, fue en su momento el caza más moderno del mundo, al incorporar alas en “cantilever” dentro de un monocasco, y contar de un tren de aterrizaje retráctil simple y robusto[4]. El japonés Mitsubishi A5M “Claude”, fue el primer caza naval monoplano que entro en servicio; combatió eficientemente al Polikarpov I-16 en las escaramuzas en la frontera de Mongolia, durante la invasión japonesa a China. Fue el diseño que sirvió de base al Mitsubishi A6M Zero, que daría la superioridad aérea al Japón durante más de un año, después de Pearl Harbor. Como vemos, para entender la evolución del diseño aeronáutico debemos visualizarlo a nivel mundial, ya que los distintos avances se daban en distintos países.
PUBLICADO : EDWIN GIOVANNY DULCEY LEÒN 11-02

E-Wolf E-2


La compañia alemana E-Wolf acaba de anunciar su segundo deportivo electrico, el e2, que busca tener como rivales directos a cualquier modelo Ferrari o Lamborghini. El E-Wolf e2 tendrá tracción total y estará propulsado por cuaatro motores electricos, uno en cada una de las ruedas. La potencia total del E-Wolf e2 será de 536 hp y un torque de 1000 Nm. A pesar de que la compaia no develó los datos oficiales de performance, pero suponemos que van a ser unos numeros increibles, ya que el vehiculo pesa solamente 900 kg.

Para seguridad del piloto, el E-Wolf e2 esta equipado con una caja antivuelco, tecnologia de competición y un modulo de sonido opcional, ya que los motores electricos no producen ningun sonido.

Una recarga completa del E-Wolf e2 toma, segun la compañia, menos de 30 minutos, con la que puede hacer mas de 300 km.

El E-Wolf e2 se espera que salga a la venta en algun momento del 2011.
publicado por Moises caseres Chacon 11:2

biocombustibles de aguas residuales


Últimamente, cada vez más compañías se están dando cuenta de que las aguas residuales constituyen un verdadero "oro negro". En los últimos años, los lodos de aguas residuales se han utilizado para fabricar electricidad, fertilizantes, alimentos para peces y gasolina. Ahora, dos compañías se han asociado para convertir las aguas residuales en etanol. Previamente, se ha trabajado para producir etanol a partir de los residuos sólidos municipales, pero las aguas residuales apenas se han utilizado en la fabricación de etanol.

La compañía de etanol celulósico Qteros, de Marlborough, Massachusetts, y Applied Cleantech (ACT), una empresa de reciclado con sede en Israel, están combinando tecnologías para convertir las aguas residuales en biocombustible etanol. Según las compañías, el proceso podría dar lugar a un biocombustible de alta calidad reduciendo, al mismo tiempo, la factura mensual de las centrales de tratamiento de aguas residuales.

Según Jeff Hausthor, cofundador de Qteros y gestor principal del proyecto, el proceso de reciclado utiliza, como principal materia prima, los sólidos procedentes del tratamiento de las aguas residuales; un detalle interesante dado que lo habitual es que las centrales paguen por trasladar ese material en camiones a los vertederos o a lugares en los que se utilizan como fertilizantes.

Pero para Jim McMillan, ingeniero bioquímico principal del National Renewable Energy Laboratory que no participó en el proyecto, el uso de las aguas residuales no solo tiene sentido desde un punto de vista económico, sino también científico. Uno de los pasos principales en la producción del etanol celulósico implica la división de la materia vegetal y la separación de la celulosa de su dura piel de lignina, ya sea esquilando mecánicamente el material o bien tratándolo con fuertes sustancias químicas. En cambio, las aguas residuales que fluyen por las alcantarillas contienen una materia vegetal rica en celulosa y baja en lignina.

Hace seis años, investigadores de Applied Cleantech reconocieron las aguas residuales como fuente de celulosa alternativa y diseñaron un sistema para recuperar la celulosa a partir de las centrales de tratamiento de las aguas residuales. A medida que las aguas residuales entrantes fluyen por el sistema, una serie de bandejas de malla filtran el líquido y recuperan los sólidos. Los tanques en suspensión filtran la arena de los lodos y la mezcla sobrante se seca y comprime en forma de bolas o pasta.

Durante los últimos años, Qteros ha estado alimentando con la mezcla con a su organismo productor de etanol, el microbio Q, una bacteria que, por naturaleza, se alimenta de material vegetal y fermenta la celulosa en etanol utilizando sus propias enzimas. Los investigadores descubrieron que el microbio Q puede producir de 120 a 135 galones de etanol por tonelada de mezcla residual, en comparación con los 100 galones de etanol que se obtienen con materias primas convencionales, como los deshechos del maíz.


por: Edwin Giovanny Dulcey

Este es el ' Honda FXC Clarity', se trata de la más avanzada tecnología en vehículos 'CERO EMISION' y No usa gasolina. Solo hidrogeno y un motor eléctrico capaz de alcanzar velocidades de mas de 100 millas por hora. Rinde un equivalente a 75 millas por galón y con una autonomía por tanque de hasta 300 millas.(Sin una gota de gasolina), Solo emite agua y calor. Este vehiculo ya esta en las carreteras del sur este de California donde actualmente existe suficiente estaciones de servicio que le garanticen reabastecimiento de hidrogeno. Se cree que estos vehículos estarán circulando en todos los estados de la Unión en un plazo no menor a Tres (3) anos.

Los problemas mas grandes que los científicos e investigadores están resolviendo es la manera mas idónea de obtener el combustible de hidrogeno sin tener que utilizar combustibles que se pretenden sustituir, por ahora, están desarrollando la obtención de combustible de hidrogeno mediante la utilización de fuentes eléctricas y EOLICA (del viento). Se especula que de tener éxito, la empresa ya estaría en capacidad de lanzar los vehículos de CARGA y Pasajeros que marcharían con la misma energía hidrogeno-eléctrica.


publicado por: EDWIN GIOVANNY DULCEY 11-02



electricidad magnetica


Unos investigadores británicos han descubierto un equivalente magnético a la electricidad: cargas magnéticas individuales que se pueden comportar e interactuar como las eléctricas. El trabajo es el primero en utilizar los monopoles magnéticos que existen en unos cristales especiales conocidos como hielo de espín.

En un artículo publicado en la revista Nature, un equipo d einvestigadores mostró que los monopoles se unen para formar una "corriente magnética" como la electricidad. El fenómeno, apodado "magnetricidad", se podría utilizar para los dispositivos de almacenamiento magnético o la informática.

La existencia de los monopoles magnéticos se predijo, por primera vez, hace alrededor de un siglo, como analogía perfecta de las cargas eléctricas. Aunque hay protones y electrones con cargas eléctricas netas positivas y negativas, no existen partículas que porten cargas magnéticas. En cambio, todo imán tiene un polo "norte" y otro "sur".

En septiembre de este año, dos grupos de investigación informaron de forma independiente sobre la existencia de los monopoles, "partículas" que portan una carga magnética global, pero que únicamente existen en los cristales de hielo de espín.

Estos cristales están hechos de pirámides de átomos cargados, o iones, dispuestos de tal forma que enfriados a temperaturas excepcionalmente bajas, los materiales muestran diminutos paquetes discretos de carga magnética.

Ahora, uno de esos equipos ha continuado su investigación para mostrar que estas "cuasi partículas" de carga magnética se pueden mover conjuntamente para formar una corriente magnética de modo muy similar a como se forma una corriente eléctrica a partir del movimiento de los electrones.

Para ello, utilizaron unas partículas subatómicas llamadas muones, creadas en la fuente de muones y neutrones ISIS del Science and Technology Facilities Council (STFC), cerca de Oxford.
Tras su producción, los muones se descomponen en otras partículas subatómicas en millonésimas de segundo, pero las partículas resultantes "recuerdan" la dirección de los muones.

El equipo, dirigido por Stephen Bramwell, del London Centre for Nanotechnology, implantó estos muones en hielo de espín para demostrar cómo los monopoles magnéticos se desplazaban.
Los investigadores mostraron que al colocar el hielo de espín en un campo magnético, los monopoles se amontonaban en un lado (igual que se amontonarían los electrones al colocarlos en un campo eléctrico).

El Prof. Bramwell señaló para BBC News que es poco probable que el desarrollo cuaje como medio de obtener energía, principalmente porque las partículas viajan solo en el interior del hielo de espín. "No vamos a ver una bombilla de luz magnética ni nada similar", señaló.

Pero utilizando la ingeniería en diferentes materiales de hielo de espín para modificar las formas en las que los monopoles se desplazan a través de ellos, estos materiales se podrían utilizan en un futuro en dispositivos de almacenamiento magnéticos o en la espintrónica, un campo que podría impulsar considerablemente las futuras capacidades de procesamiento.


por: Andres Enrique Quintero Santander

HondaFCX


La nueva generación del prototipo FCX es la base del modelo que comercializará en 2008 y su lanzamiento por parte de Honda constituye un hecho histórico en la industria automotriz. Este revolucionario modelo conceptual ofrece una nueva y compacta pila de combustible de alta eficiencia, 20 % más pequeña, 30% más liviana, y de mayor potencia que la del anterior prototipo FCX.

Honda ha confirmado que comercializará un vehículo de pila de combustible el año 2008, solamente en Japón y Estados Unidos, y que el modelo comercial estará basado en este prototipo.

¿Cómo funciona?

Este modelo utiliza hidrógeno suministrado a una pila de combustible para generar electricidad y encender su motor eléctrico. Así, se puede suministrar energía rápidamente y tanto la carga como la descarga pueden ser instantáneas.

Esta energía pasa directamente a un motor eléctrico, que sustituye a los propulsores convencionales, de ahí las grandes ventajas de este sistema: se eliminan las emisiones contaminantes y el consumo de bencina o diésel.

A pesar de su pequeño tamaño, la pila de combustible tiene una salida de potencia de 130 CV. Tiene tres motores eléctricos: uno que ocupa la parte delantera y uno que impulsa cada rueda posterior, y que permite alcanzar una velocidad máxima cercana a los 160 km/h.

Asimismo el depósito de hidrógeno ha sido fabricado en un nuevo material que permite almacenar más cantidad de hidrógeno sin aumentar la presión. El tanque tiene una capacidad de 5 kg de hidrógeno, lo que permite una autonomía de viaje de 560 km.
PUBLICA Moises caseres Chacon 11:2

martes, 13 de octubre de 2009

Edificios inteligentes


Usted casi siempre ha escuchado el término inteligencia, como un factor de destreza en el ser humano. Y esa facultad ha sido adjudicada generalmente al cerebro. Pues bien, hoy, ese término se ha puesto de moda en la jerga del mundo de la construcción de oficinas.Inteligencia, sigue haciendo alusión literaria a la facultad de conocer, de demostrar destreza y experiencia. Y ahora, más que un término, se ha convertido en el arte de diseñar y construir edificaciones inteligentemente. Con esa misma percepción, hoy en día el lenguaje cotidiano de los constructores, proyectistas e ingenieros se ha llenado de una cantidad de nuevos conceptos que resultan bastante "sonoros y atrayentes" para los que venden oficinas. Pero igualmente desconocidos para los compradores y clientes que escuchan: "espacios inteligentes", "edificios automatizados", "servicios de comunicaciones", etc.La pregunta natural es: ¿ En qué se relaciona la inteligencia con un espacio físico como un salón, alcoba u oficina?. Y esta idea se puede resumir de una manera más sencilla con algunos sinónimos más adecuados como flexibilidad, confort, seguridad, economía y control.Inicialmente, la tecnología define un edificio inteligente como aquel que incorpora en forma correcta todos los espacios e instalaciones necesarias a través de la utilización de servicios con equipos de cómputo, teléfonos, fax, impresoras, controles y sistemas de automatización en general. Todo ello, de acuerdo a los desarrollos tecnológicos y las necesidades de los usuarios.Más aún, esta definición de edificios inteligentes esta basada en términos financieros. Es decir, que corresponde a los edificios que desde su diseño plantean las características necesarias que permiten obtener el más bajo costo de mantenimiento en su administración y que adicionalmente incurren en la mayor eficiencia organizacional y operativa dentro del ciclo de vida útil (40 años aproximadamente), de un edificio.Desde este punto de vista, es claro que un edificio inteligente NO es un edificio automatizado con un sinnúmero de controles instalados. Ni tampoco es aquel que cuenta con cableado estructurado o manejo de redes, sino más bien es aquel que utiliza todos estos sistemas de forma integrada, para prestar servicios tanto hoy como en el futuro a sus ocupantes, reduciendo así sus gastos y aumentando su comodidad y eficiencia.De manera, que son varios los factores que se deben tener en cuenta al considerar el diseño y la construcción de un edificio realmente inteligente. La estructura del edificio se puede analizar desde dos puntos de vista. Primero, lo que aportará respecto al número de servicios de comunicaciones para el usuario dependiendo del tipo de actividad de quienes lo ocupen. Y segundo, en términos arquitectónicos con relación a los espacios y volúmenes interiores, materiales utilizados, nivel de confort y la estructura en general.



publicado por : Moises Caseres Chacon 11:2



lo ultimo en televisores


"Cada vez es mayor la demanda por consumir contenido en tres dimensiones, y realmente no es difícil conseguir que los nuevos televisores puedan leer en 3D un juego o una película diseñada en sólo dos dimensiones", señala el director de mercadotecnia de Mitsubishi, David Naranjo.
Las firmas punteras en tecnología del hogar presentaron sus novedades en Nueva York con la tecnología 3D como protagonista, que se incorpora a las pantallas de plasma y 'webcams'.

La feria tecnológica "Line Shows", organizada por la Asociación de Electrónica de Consumo (AEC), cierra hoy sus puertas tras reunir durante dos días las últimas tendencias en tecnología doméstica.



Mitsubitshi presentó en la muestra la única gama de televisores de gran tamaño preparados para reproducir imágenes tridimensionales en el mercado.

Esta gama de pantallas de plasma cuenta con un modelo de 82 pulgadas, el más grande que se ha manufacturado hasta la fecha para el hogar, capaz de reproducir imágenes en la resolución más alta disponible (1080p).
publica : Moises Caseres Chacon : 11:2