La aerodinámica

Publicado por Unknown




es la rama de la mecánica de fluidos que estudia las acciones que aparecen sobre los cuerpos sólidos cuando existe un movimiento relativo entre estos y el fluido que los baña, siendo este último un gas y no un líquido, caso este que se estudia en hidrodinámica.

Introducción
Resultado de imagen para tecnologia aerodinamica
La aerodinámica se desarrolla a partir de las ecuaciones de Newton. Con las ecuaciones de continuidad, cantidad de movimiento y energía se pueden obtener modelos que describen el movimiento de los fluidos. Un caso particular ocurre cuando el movimiento del fluido es estacionario, es decir, las propiedades del fluido solo cambian con la posición en el campo fluido pero no con el tiempo, y cuando además se puede despreciar la viscosidad del fluido. Con estas dos características, movimiento estacionario y no viscoso, se puede obtener una función potencial que al ser derivada se obtenga la velocidad del fluido en cada punto del campo. Una vez hayamos obtenido la velocidad del fluido, podremos hallar otras magnitudes importantes. La aerodinámica clásica que explica cómo se genera la sustentación en los perfiles aerodinámicos se basa en movimientos potenciales. Este tipo de movimiento es ideal, ya que la viscosidad nula nunca se consigue.

Resultado de imagen para tecnologia aerodinamica

Modelando el campo del fluido es posible calcular, en casi todos los casos de manera aproximada, las fuerzas y los momentos que actúan sobre el cuerpo o cuerpos sumergidos en el campo fluido. La relación entre fuerzas sobre un cuerpo moviéndose en el seno de un fluido y las velocidades viene dada por los coeficientes aerodinámicos. Existen coeficientes que relacionan la velocidad con las fuerzas y coeficientes que relacionan la velocidad con el momento. Conceptualmente los más sencillos son los primeros, que dan la fuerza de sustentación {\displaystyle {L}} , la resistencia aerodinámica {\displaystyle {D}}  y fuerza lateral {\displaystyle {Y}}  en términos del cuadrado de la velocidad (V2), la densidad del fluido (ρ) y el área transversal 

Divisa Virtuales

Publicado por Unknown

Divisas virtuales



Mucho se ha hablado, especulado, criticado y hasta censurado este tipo de moneda. Las criptodivisas representan un método de intercambio personal que no involucra instituciones gubernamentales ni económicas para llevar a cabo una transacción. Debido a esto, el status quo ha tratado de eliminar o limitar su existencia. La más famosa de ellas sin duda es Bitcoin y su principal papel ha sido demostrar el gran interés del público en general hacia este nuevo método de intercambio. En la era digital, el dinero convencional que se intercambia mano a mano cada vez es menos esencial ―hasta las tiendas de la esquina aceptan tarjetas de crédito― y esto parece ser el primer síntoma de que se avecina un importante cambio. La existencia de las criptodivisas es innegable y aunque su futuro aún es incierto, podría jugar un rol fundamental en nuestro futuro sistema de organización social. Si quieres saber más del tema te recomendamos leer ¿Qué es Bitcoin y cómo funciona?¿Qué es Bitcoin?


Bitcoin es una criptodivisa, llamada así porque se trata de un medio digital de intercambio basado en principios de criptografía. Básicamente, Bitcoins son monedas digitales que se transfieren de persona a persona sin necesidad de la interferencia de un banco o un sistema centralizado. El dinero puede cambiar de manos, sin importar el lugar de residencia o distancia entre los participantes, gracias al uso de Internet. Una de sus principales ventajas es que los cargos por transacción son mínimos si se les compara con métodos tradicionales. Por ejemplo, una transacción de $6.5 MDD se llevó a cabo por medio de Bitcoin de manera casi inmediata con una tarifa de transferencia de $0.06 USD (6 centavos), mientras que el mismo servicio por medio de PayPal hubiese tenido un costo de $188,500 USD y hubiera tardado de 3 a 5 días hábiles en ser aprobada.

A menudo, Bitcoin es descrito como “el Internet del dinero”
Esta enorme reducción de tiempo y de costos de operación se explica de manera sencilla. A diferencia de grandes bancos que requieren enormes rascacielos, empleados, computadoras, y costosos servidores, Bitcoin aprovecha el poder de Internet para que cada una de las computadoras en su red se encargue de procesar la información.
Esta moneda virtual puede ser utilizada por cualquier persona y, debido a que no es controlada por ninguna institución, no es posible que las cuentas de los usuarios sean congeladas. Por supuesto, la ausencia de respaldo por parte de una institución económica presenta tanto ventajas como desventajas, aspectos que veremos más adelante.

¿Cuál es el origen de Bitcoin?


La creación de esta moneda es un pequeño cuento de hadas de Internet. La prueba de concepto de Bitcoin surgió por primera vez en 2009 y fue creada por la figura misteriosa de Satoshi Nakamoto, de quien realmente no se sabe nada, pues no concede entrevistas y sólo se comunica por correo electrónico. Sus datos personales son tan escasos que muchos piensan que su nombre es un pseudónimo de un grupo de gente que creó la divisa. El nombre corresponde a la cultura japonesa, en la cual Nakamoto significa “origen central” o “el que vive en medio”, lo que da fuerza a esta teoría. Se dice que Nakamoto abandonó el proyecto a finales de 2010 sin explicaciones.

La única foto conocida del supuesto Satoshi Nakamoto
La única foto conocida del supuesto Satoshi Nakamoto
Bitcoin tiene muchas ventajas, y su modelo económico está basado en el oro, pues para obtener unidades se lleva a cabo una serie de procedimientos digitales comparables con el proceso mediante el cual se mina este metal precioso. Así mismo, son un recurso finito, no se devalúan con el paso del tiempo, su obtención se vuelve cada vez más complicada y las personas que comenzaron a minar durante sus inicios poseen una cantidad mucho mayor.

¿Quién controla Bitcoin?

El control de la moneda yace en la comunidad entera, y para que haya un cambio en su funcionamiento o sus regulaciones, la mayoría de sus usuarios debe llegar a un consenso, pues su forma de operar es muy similar a aquella de una red P2P, pero éste es un tema que explicaremos más adelante. Lo importante aquí es entender que ningún pequeño grupo, gobierno o individuo puede interferir con la producción de dinero, ya sea acelerando o desacelerando su crecimiento. Claro que esto tiene sus desventajas, debido a que al carecer de respaldo por parte de una institución financiera, no hay manera de reclamar por errores de depósito o algún tipo de fraude, ya que las transacciones son finales, y una vez hecha la transferencia no hay nada que se pueda hacer. Asimismo, si un usuario pierde el password de su cuenta, o su disco duro muere y éste no tenía respaldadas sus Bitcoins en un servicio especializado, deberá despedirse de su dinero por siempre.

¿Dónde se genera cada Bitcoin?


Al ser virtuales, cada moneda tiene su origen en una computadora y sólo hace falta bajar un programa llamado Bitcoin Miner (como GUI-MINER) que, como su nombre lo indica, mina para obtener Bitcoins. El término minar, en este caso, significa “poner a trabajar a la computadora para resolver problemas matemáticos que se incrementan en complejidad cada determinado tiempo”. Una vez resuelto el problema, el usuario es recompensado con una Bitcoin.


No obstante, las cosas no son tan fáciles. Como mencionamos, la complejidad de los problemas aumenta cada vez y se calcula que, en la actualidad, son tan difíciles de resolver, que minar una Bitcoin tomaría a una computadora de oficina convencional de 5 a 10 años; sin embargo, si se usa el poder conjunto de todas las computadoras en la red, esto se resuelve en alrededor de 10 minutos, lo que, al final, recompensa a la computadora que solucione la situación.

Las nuevas monedas se obtienen de la misma manera: minando pero ahora se requieren computadoras de enorme poder (equipadas, por lo general, con tarjetas de video ATI) dedicadas por completo a adquirir esta divisa. Por supuesto, al inicio de la vida de esta moneda, era muy fácil minar Bitcoins y mucha gente logró tener cientos de miles de ellas.


Pero si lo que hoy buscas es obtener Bitcoins con el propósito de conseguir dinero rápido, lamentamos decirte que llegaste un poco tarde a la fiesta, pues la “fiebre del oro” de la criptodivisa ya vio sus mejores días y te tomará más tiempo y recursos minar una sola moneda de lo que obtendrás al venderla. Así que te encontrarás en la misma situación que los cazadores de oro en el río Hudson: metiendo las manos en el lodo por muy poca recompensa. Si quieres intentarlo, siempre tendrás esperanza, ya que el sistema funciona como una lotería y si tienes muchísima suerte, tu computadora puede ser la que resuelva el problema que te haga acreedor a 1 Bitcoin. Aunque lo más probable es que al obtenerla, hayas gastado en la cuenta de luz más de lo que vale.

Por el momento, la forma más fácil de obtener Bitcoins es comprarlas directamente a otro usuario a cambio de cualquier moneda local (dólares, por lo general) en sitios como mtgox.com, o recibirla como pago a cambio de algún bien o servicio.

¿Cómo funciona Bitcoin?

Bitcoin está basada en un sistema llamado Peer-to-Peer (conocido en español como red de punto a punto), en el cual todos los miembros de la comunidad comparten ciertas partes de la información y cuyo conjunto conforma el total, así que no existe un servidor principal donde se almacenen los datos. Por ejemplo, si quisiéramos guardar el abecedario usando este sistema, una computadora de la comunidad tendría las letras de la A a la J, otra tendría de la K a la Q y la última de la R a la Z, de manera que, en conjunto, estas computadoras tendrían el abecedario completo. En este modelo, sólo estamos usando 3 computadoras y en el caso del abecedario podríamos tener sólo 27 máquinas, cada una guardando una letra del alfabeto, pero en el caso de la era digital un sinfín de computadoras pueden almacenar una inimaginable cantidad de bits y bytes de un archivo en particular.

Organigrama de una red de punto a punto
Organigrama de una red de punto a punto
Pero, si en este ejemplo se destruye una computadora, con ella desaparece ese fragmento del abecedario. Es por eso que al sistema se le agrega redundancia, lo que significa que hay varios equipos replicando la misma información, de manera que puede haber 10, 1000 o 1 millón de computadoras que tienen de la A a la N mientras que algunas sólo cuentan con la J y otras la D. Cabe destacar que en esta red, si una de las computadoras desea tener por sí misma el abecedario completo, lo puede hacer, pero es importante notar que esto no le daría más importancia sobre las demás, pues todos estos nodos se comportan como iguales y ninguno tiene jerarquía sobre otro.

De esta manera funciona una red Peer-to-Peer (P2P), pero ¿cómo aplica esto a las criptodivisas?

Cada una de las computadoras en donde se ha instalado el programa de Bitcoin tiene un libro de contabilidad llamado Ledger (o block chain); en él, se registran todas y cada una de las transacciones efectuadas por los usuarios, desde la primera en su historia hasta la más reciente. Los datos son repartidos entre todos los nodos de la red y un usuario puede leer información de toda transferencia. El conjunto de computadoras que generan Bitcoin tienen el total de este Ledger y se sincronizan frecuentemente para siempre tener la información al minuto.


Con el fin de asegurar que cada transacción es válida, éstas cuentan con un algoritmo que representa un problema que debe ser verificado y resuelto por las computadoras en la red, y es aquí donde las máquinas que minan tienen su función en el sistema, pues son ellas quienes, en conjunto, resuelven el problema, lo que da validez a la transacción. Cada transferencia se revisa muchas veces (idealmente 6) por múltiples computadoras con el fin de determinar si esta cuenta con todos los requisitos para registrarse como válida, lo que reduce a una cantidad mínima la posibilidad de intercambios fraudulentos.

Algo digno de destacar es que un usuario con conocimiento suficiente puede ver cualquier línea de código que compone el programa para entender cómo funciona, pero no es posible que la cambie a menos de que exista un consenso de la mayoría de los usuarios. Es por esto que no hay individuo, gobierno u organización que tenga la facultad de tomar decisiones sobre el valor y cantidad de su moneda y el incentivo de mantenerla en buena forma yace en el interés de la comunidad en que la red funcione lo mejor posible; su patrimonio depende de ello.




Modularidad

Publicado por Unknown

Modularidad



Uno de los principales problemas que plagan a nuestra sociedad es la obsolescencia planeada. El hecho de que las compañías diseñen sus productos para cumplir una expectativa de vida corta no sólo contamina el planeta, sino que desperdicia una enorme cantidad de recursos no renovables. Si una pequeña pieza de un producto se descompone, conviene más tirarlo a la basura y comprar uno nuevo. Lo mismo sucede con los dispositivos que salen cada año, pues a veces un mejor procesador justifica comprar un artículo totalmente diferente. Una solución a este problema es la llamada modularidad, la cual consiste en la posibilidad de intercambiar las piezas inservibles por nuevas, lo que elimina el desperdicio innecesario. Mediante Project Ara, Google planea liderar este rubro con el primer teléfono con piezas que el usuario puede cambiar según sus necesidades. La propuesta es muy interesante y realmente podría ser el inicio del futuro modular.
Modularidad
Un módulo es un componente de un sistema más grande y opera dentro del sistema independientemente de las operaciones de otros componentes.

La modularidad es una opción importante para la escalabilidad y comprensión de programas, además de ahorrar trabajo y tiempo en el desarrollo.



La modularidad es la capacidad que tiene un sistema de ser estudiado, visto o entendido como la unión de varias partes que interactúan entre sí y que trabajan para alcanzar un objetivo común, realizando cada una de ellas una tarea necesaria para la consecución de dicho objetivo. Cada una de esas partes en que se encuentre dividido el sistema recibe el nombre de módulo. Idealmente un módulo debe poder cumplir las condiciones de caja negra, es decir, ser independiente del resto de los módulos y comunicarse con ellos (con todos o sólo con una parte) a través de unas entradas y salidas bien definidas. http://www.revistaciencias.com/publicaciones/EkEppkkyAlHWhlhKZu.php

Ingeniería de software es la producción de software con calidad. Calidad implica dos tipos de factores: internos y externos.

Los factores externos son cualidades que son "detectadas" por los usuarios, por ejemplo: velocidad y facilidad de uso. Los factores internos son cualidades perceptibles por profesionales del área de la computación, por ejemplo: modularidad y legibilidad.

Factores externos:

1. Correctitud: Capacidad para realizar con exactitud las tareas definidas en las especificaciones.

2. Robustez: Capacidad de reaccionar apropiadamente ante condiciones excepcionales.

3. Extensibilidad: Facilidad de adaptar los productos de software a los cambios en la especificación.

4. Reutilización: Capacidad de los elementos de software de servir para la construcción de muchas aplicaciones diferentes.

5. Compatibilidad: Facilidad de combinar unos elementos de software con otros.

6. Eficiencia: Capacidad para exigir la menor cantidad posible de recursos (tiempo de procesador, espacio de memoria, ancho de banda, etc.).

7. Portabilidad: Facilidad de transferir los productos de software a diferentes entornos de hardware y software.

8. Facilidad de uso: Cubre la facilidad de instalación, de operación y de supervisión.


9. Funcionalidad: Conjunto de posibilidades que proporciona un sistema.

Electricidad inalámbrica

Publicado por Unknown

Electricidad inalámbrica

Desde las épocas de la mente brillante de Nikola Tesla, el ser humano ha buscado transmitir electricidad de manera inalámbrica. Se ha logrado esta tecnología hasta cierto nivel al permitir cargar dispositivos móviles en pequeñas almohadillas de transmisión de energía por medio de transferencia inductiva. De momento, este método no es muy efectivo, pues la distancia entre el transmisor y el receptor es muy corta. No obstante, esto podría cambiar en el futuro debido a que investigadores coreanos lograron transferir electricidad a una distancia de 5 metros con la potencia suficiente para cargar hasta 40 teléfonos celulares. Por supuesto, esta tecnología está en sus primeras etapas y aún es muy costosa, pero es muy probable que en el futuro existan estaciones de carga Wi-Power en bares, restaurantes y establecimientos comerciales que nos permitan recargar la batería del celular mientras éste se encuentra en nuestro bolsillo, sin necesidad de cables. Te invitamos a leer ¿Cuáles son los retos que enfrenta la carga inalámbrica?
¿Cuáles son los retos que enfrenta la carga inalámbrica?
La tecnología ya existe, pero diversos factores retrasan su éxito en el mercado masivo
Nos encontramos a principios de 2014, pero sólo bastaron un par de meses para que cientos de nuevos dispositivos móviles y portables fueran presentados tanto en el CES como en el MWC. Los más recientes smartphones y tablets de las marcas más importantes ya no estarán solos, los relojes y los brazaletes inteligentes llegaron para quedarse y proveer a tu muñeca de un poder nunca antes visto. No obstante, el incremento en la cantidad de dispositivos que usamos significa un mayor número de cables y cargadores, así como más energía y tiempo necesarios para recargar las baterías.

Tesla es el mayor referente de la transmisión inalámbrica de energía
Tesla es el mayor referente de la transmisión inalámbrica de energía
Desde los inicios del teléfono celular hemos dependido de cables conectados directamente a la corriente eléctrica para recargar su pila. Durante años, nos acostumbramos a que ésta durara alrededor de una semana, pero con la llegada de los smartphones y su gran capacidad de procesamiento y conectividad a Internet, esos días quedaron atrás. Ahora, es necesario recargar la batería de nuestro teléfono por lo menos 1 vez al día, incluso más veces si nuestros hábitos así lo dictan.

La carga inalámbrica es una alternativa real que podría eliminar algunos de los cables y cargadores, así como volver más eficiente el proceso de recarga. Este tipo de tecnología no es nueva: desde el siglo XIX, Nikola Tesla llevó a cabo experimentos y condujo una ardua investigación acerca de la transmisión de energía a través del aire. Más recientemente, nuevos productos que adaptan este tipo de tecnología han surgido, pero distintos factores no han permitido que la energía inalámbrica se convierta en el común denominador para la recarga de baterías. En algún momento sucedió algo similar cuando se dio a conocer la conectividad inalámbrica por Bluetooth y Wi-Fi, mismas que ahora se encuentran en casi todos los dispositivos y establecimientos alrededor del mundo.

En el presente artículo analizaremos el contexto actual de la carga inalámbrica y los retos que deberá superar para convertirse en el nuevo estándar para la recarga de todo tipo de baterías.

Tipos de carga inalámbrica



Existen 3 distintos tipos de carga sin cables: por radio, por inducción y por resonancia. La carga por medio de ondas de radio es adecuada en dispositivos que requieren poca energía y que se encuentren dentro de un radio de 10 metros del transmisor de la carga.Principalmente se usa para recargar las baterías de implantes médicos, como aparatos para la sordera y marcapasos. El transmisor envía una onda de radio con frecuencia de 915 MHz, la cual es convertida en energía por el dispositivo. Este método ofrece gran flexibilidad, pero la obtención de carga es baja y expone a las personas a contaminación eléctrica, mejor conocida como smog eléctrico.

La carga por inducción funciona por medio de bobinas que transmiten y reciben energía eléctrica, pero la separación entre ellas debe ser mínima para que la transmisión sea efectiva. Los cepillos de dientes electrónicos han utilizado este tipo de carga durante años, y actualmente el mercado de los teléfonos celulares es el que cuenta con mayor crecimiento en la adopción de esta tecnología. El ejemplo más claro es el Powermat de Duracell, un cargador que permite colocar dispositivos sobre su superficie lisa para recargarlos sin necesidad de cables, excepto claro, el cable que va del Powermat a la corriente eléctrica.

La carga por resonancia servirá para recargar automóviles eléctricos
La carga por resonancia servirá para recargar automóviles eléctricos
El tipo de carga por resonancia puede llevarse a cabo con una separación de hasta 5 metros; al igual que en la carga por inducción, se emplean 2 bobinas de cobre: una que envía y otra que recibe energía. La diferencia es que en este método la transferencia de energía sucede cuando ambas bobinas cuentan con la misma frecuencia. Actualmente, se han efectuado pruebas en las que la carga por resonancia ha logrado entregar aproximadamente 3000 watts con una eficiencia de entre 80% y 90%.

El estándar

Al igual que sucedió con la conectividad inalámbrica, mejor conocida como Wi-Fi, es necesario definir un estándar que permita a los fabricantes integrar en sus dispositivos los elementos de carga inalámbrica que sean compatibles con toda la industria. Existen 3 principales grupos empresariales involucrados en el tema, y cada uno ha desarrollado su propio estándar. Es aquí donde comienza la batalla por definir cuál de éstos será el estándar elegido por todo el mundo.

Rezence es la marca de carga inalámbrica de A4WP
Rezence es la marca de carga inalámbrica de A4WP
Uno de los grupos involucrados es la Alliance for Wireless Power (A4WP). Ésta utiliza una señal de alta frecuencia cercana a los 7 MHz, lo que permite a los dispositivos recargarse mientras se encuentran a una distancia moderada del transmisor. Por su parte, la Power Matters Alliance (PMA) trabaja con una señal de baja frecuencia a 300 kHz, por lo que es necesario que el dispositivo que se desea recargar esté en contacto con el cargador todo el tiempo.

Sin embargo, el contendiente más antiguo es el Wireless Power Consortium (WPC), mismo que en 2008 presentó Qi, la tecnología de carga inalámbrica más usada en la actualidad. Originalmente, la tecnología podía operar a no más de 5 mm de distancia y necesitaba que el dispositivo fuera colocado de manera correcta para que la transmisión de energía comenzara. Este problema ha sido resuelto gracias a que se diseñó una configuración de multibobinas que adapta la frecuencia para compensar cualquier interferencia provocada por algún metal o ser vivo. Esto permite al cargador transmitir energía al dispositivo hasta a 5 cm de distancia.

El estándar Qi es uno de los más importantes

Hasta hace poco, WPC era reconocido como el líder indiscutible de la categoría, sobre todo por la cantidad de empresas que lo respaldan, como HTC, LG y Samsung, además de estar presente en smartphones populares, como el Nexus 4 de Google y el Lumia 920 de Nokia. Sin embargo, apenas el mes pasado, PMA y A4WP firmaron un acuerdo preliminar mediante el cual ambas instancias compartirán su tecnología. Este movimiento cambia las reglas del juego y complica la existencia a Qi. Por su parte, PMA cuenta con el respaldo de AT&T, Google y Starbucks. Los establecimientos de la cadena de cafeterías son algunos de los lugares preferidos por la gente para obtener Wi-Fi gratis, lo que los convierte en la plataforma ideal para implementar e impulsar la tecnología de PMA.

Los retos

Uno de los principales problemas de la transmisión de energía inalámbrica es el tema de la eficiencia. Los cargadores inalámbricos generan un desperdicio energético mucho mayor que los cargadores tradicionales: hasta 30% de energía eléctrica se pierde en el proceso de recarga, lo que significa mayor gasto y contaminación.

Cada año se desperdician millones de watts por dejar electodomésticos conectados
Cada año se desperdician millones de watts por dejar electodomésticos conectados
En el mundo existen aproximadamente mil millones de smartphones, si consideramos que cada teléfono requiere en promedio de 5 W para cargarse por completo y suponemos que lo hace cada 2 días, el total de energía requerida anualmente sería de 910 mil millones de watts. Si se emplearan cargadores por inducción, esta cifra aumentaría hasta 1.125 mil millones de watts, lo que significa un desperdicio de 225 mil millones de watts. Según la Comisión de Energía de California, la electricidad desperdiciada serviría para dar energía a 35,000 hogares y produciría 100,000 toneladas métricas de dióxido de carbono cada año.

Aún así, los cargadores tradicionales desperdician entre 60 y 100 veces más energía que los cargadores de inducción, aspecto que se debe a la cantidad de electricidad que consumen por mantenerse conectados a la corriente durante varias horas al día, incluso cuando no hay un dispositivo que lo necesite. Una de las ventajas de la carga por inducción es que puede contribuir a la reducción de desperdicio si se implementa en los cargadores la función de apagado automático, la cual se activa cuando no hay un aparato que lo esté usando.

Otro reto importante es la adopción, la cual ha experimentado un crecimiento más lento de lo esperado. Podría pensarse que la falta de materia prima o de empresas interesadas en el desarrollo de esta tecnología son los factores que han frenado la adopción, pero no es así. Para que la carga inalámbrica esté presente en más dispositivos, es necesario llegar a un acuerdo, es decir, definir un estándar.

Starbucks impulsa la adopción de la carga inalámbrica
Starbucks impulsa la adopción de la carga inalámbrica
En la sección anterior introduje brevemente la situación actual de los 3 principales competidores, los cuales buscan imponer su propio estándar. Lo que no mencioné es que Qualcomm se involucró tanto con WPC como con A4WP; para muchos, eso significa que la empresa busca no sólo el beneficio propio, sino también encontrar un punto medio en el que ambas partes puedan ponerse de acuerdo. Aunque eso no ha sido confirmado, contar con un estándar único y abierto disminuirá los obstáculos que frenan la adopción. La historia no miente, basta recordar que tanto el USB como el DVD pasaron por un proceso similar hasta que finalmente se estandarizaron y la adopción se aceleró como consecuencia.

Toq de Qualcomm se carga inalámbricamente
Toq de Qualcomm se carga inalámbricamente
El hecho de que Apple no haya incluido en sus productos ninguna de las tecnologías de carga inalámbrica disponible tampoco contribuye a mejorar la adopción. El iPhone y el iPad son 2 de los dispositivos móviles más vendidos en todo el mundo, el que no sean compatibles con cualquiera de los tipos de carga inalámbrica disminuye la demanda de esta tecnología, al igual que ha sucedido con la conectividad NFC. El tema no es culpar a Apple, pero no hay duda de que sus productos influencian a una gran parte de los usuarios de dispositivos inteligentes. Algunos rumores acerca del próximo lanzamiento del iWatch indican que el reloj podría recargarse de manera inalámbrica, lo cual planta una duda importante: ¿Apple implementará alguno de los estándares actuales o desarrollará uno propio? Si la empresa dirigida por Tim Cook decidiera irse por la segunda opción, el tema de la estandarización podría complicarse aún más.

Finalmente, si se lograr establecer un estándar único para la carga inalámbrica, la cantidad de inversión necesaria para implementar este tipo de hardware en establecimientos comerciales, hoteles, oficinas y lugares públicos, por mencionar algunos, sería muy elevada. Un ejemplo claro es el que vivimos con la introducción del Wi-Fi en México, aunque cada vez más lugares ofrecen Internet inalámbrico, aún nos encontramos en una de las primeras fases de su implementación.


Efecto de la Tecnologia Sobre la naturaleza

Publicado por Unknown

En el último siglo, el planeta tierra ha sido un torturado testigo del desarrollo tecnológico del hombre. Un desarrollo que ha significado muerte y destrucción masiva al planeta que llamamos hogar.
Irónicamente podemos darnos cuenta que el hombre como especie, somos la más inadaptable de todas las especies que han vivido en el planeta, sin considerar nuestro origen divino, o Darwineano, podemos asegurar que el éxito de nuestro dominio tiene base en el desarrollo de nuestra inteligencia.
 Cabe mencionar que esta inteligencia nos ha hecho la mejor y la peor especie que ha habitado este hogar. Me refiero a la mejor, porque hemos aprovecha y usado el ambiente para nuestro beneficio más que otras especies, y a lo peor, porque en ese uso desmesurado e irresponsable hemos destruido en un siglo, lo que un ecosistema tardó en formar en miles de años.
El brillo de la fama, el poder y el dinero ha cegado tanto a los hombres sedientos de conocimientos; que con la ingenuidad de Pandora que jugó con las maldades que azotaban al mundo antiguo según los filósofos griegos, abren las puertas del conocimiento con el interés de dominarlas aún sin tener razón o comprensión de su uso.
 El hombre ahora como especie dominante del planeta, se ha dado el derecho divino para decidir sobre el futuro de las demás especies, acabando a razón de 23 especies por mes. Destruir hábitat naturales en fracciones de tiempo de lo que la naturaleza lo creo, catástrofes, corrupción, contaminación, y todos los defectos del hombre repercuten en la naturaleza; que como una esponja absorbe cada día, cada hora, nuestros hijastros mutantes, esperando el momento en que termine por explotar con una fuerza que acabará con lo que conocemos ahora.

Efectos del uso de la tecnología sobre la naturaleza

Es irónico observar como cada descubrimiento que beneficia al hombre y hace que avance otras 100 años en el conocimiento en apenas 1 hora, de por resultado la destrucción de miles de años de trabajo realizado por la naturaleza en tan solo unos años; refiéreme con ello a los grandes desastres que han atormentado la naturaleza.
La contaminación con plaguicidas, los derrames de petróleo en el mar, los peligros de la radiación nuclear y los incendios forestales amenazan a los ecosistemas de la Tierra. Es esencial para la defensa de la vida en el planeta que se difundan y analicen los errores que han llevado a situaciones de grave daño ecológico.

Los derrames de petróleo

Una de las mayores causas de la contaminación oceánica son los derrames de petróleo. El 46% del petróleo y sus derivados industriales que se vierten en el mar son residuos que vuelcan las ciudades costeras. El mar es empleado como un muy accesible y barato depósito de sustancias contaminantes, y la situación no cambiará mientras no existan controles estrictos, con severas sanciones para los infractores.




El 13% de los derrames se debe a accidentes que sufren los grandes barcos contenedores de petróleo, que por negligencia de las autoridades y desinterés de las empresas petroleras transportan el combustible en condiciones inadecuadas. En los últimos años, algunos de los más espectaculares accidentes fueron el del buque-tanque Valdés de la Exxon, ocurrido frente a las costas de Alaska el 24 de marzo de 1989, y el del petrolero Mar Egeo, el 3 de diciembre de 1992, frente a la entrada del puerto de La Coruña, en España. Otro 32% de los derrames proviene del lavado de los tanques de los grandes buques que transportan este combustible.
Tanto los derrames de petróleo como los incendios forestales afectan gravemente las cadenas tróficas de los ecosistemas.
Los derrames ocasionan gran mortandad de aves acuáticas, peces y otros seres vivos de los océanos. Esto altera el equilibrio del ecosistema y modifica la cadena trófica. En las zonas afectadas, se vuelven imposibles la pesca, la navegación y el aprovechamiento de las playas con fines recreativos.
En los incendios forestales los árboles no son los únicos perjudicados: muchos animales quedan atrapados en el humo, mientras que otros migran.

Los Escapes Nucleares:

Ciertas sustancias propagan energía al desintegrarse sus átomos, y también el calor residual -persistente durante años- que generan. Ese fenómeno, conocido como radiactividad, es particularmente intenso en el caso del plutonio.
En la actualidad, 424 centrales nucleares instaladas en 25 países producen el 16% de la electricidad mundial. Algunos países, como los Estados Unidos, presionados por el terrible accidente de Chernobyl, han anulado los proyectos de construcción de nuevas plantas nucleares.

La explosión registrada en Chernobyl el 26 de abril de 1986 liberó gran cantidad de radiactividad. La nube que se formó se desplazó a otros países, por la acción de los vientos. La zona más contaminada comprendió unos 260.000 km2 de las ex repúblicas soviéticas de Ucrania, Rusia y Belarús, y afectó de manera directa a 2.600.000 habitantes.
Las autoridades soviéticas sólo admitieron oficialmente 31 víctimas, pero se calcula que las emisiones radiactivas produjeron 32.000 muertos en los primeros diez años, y que 400.000 personas debieron ser desplazadas de sus lugares. La explosión del reactor nuclear provocó terribles efectos en la salud de la población: aumento de la mortalidad infantil, cáncer de tiroides, incremento de la cantidad de niños nacidos con leucemia, malformaciones, tumores y otras afecciones, que se transmitirán genéticamente. Además, el desastre causó la destrucción de cosechas enteras y la contaminación de alimentos.
Las centrales nucleares tienen elevados costos de construcción y mantenimiento, y además han demostrado no ser lo suficientemente eficientes. De todas maneras, el desencadenante para el cese de la construcción de algunas plantas en el mundo ha sido el accidente de Chernobyl, Ucrania.
 Otro problema relacionado con los escapes nucleares, y no menos importante por sus consecuencias, es el destino de los residuos radiactivos. En un principio se había optado por verterlos en los fondos oceánicos. Pero pronto se demostró que el procedimiento era poco seguro.
Se han buscado distintas soluciones alternativas, y en la actualidad prosigue el debate. Tal vez el mejor de los métodos propuestos sea el almacenamiento subterráneo, hermético y sin término establecido.
Incendios forestales
Anualmente el hombre desmantela cerca de 12.000.000 de hectáreas de bosque tropical. Sin embargo, esta reducción no es la única que sufren las áreas forestales de nuestro planeta; a ella debe agregarse la explotación desmedida que padecen otros tipos de bosques y la pérdida que ocasionan los incendios.
Más de 7.000.000 de hectáreas de selvas, bosques y matorrales se destruyen anualmente por esta causa. Entre los factores que favorecen este fenómeno se encuentran las altas temperaturas, las sequías y gran falta de humedad y los vientos fuertes y secos que contribuyen a la dispersión del fuego. Lo que empieza siendo una chispa, rápidamente se convierte en un foco de fuego que avanza y no se puede detener ni controlar.
 En el modo de avance de un incendio forestal se pueden distinguir tres sectores. El nivel más alto, el del fuego que ocurre en la copa de los árboles, es decir donde están las ramas y las hojas, es el de avance más rápido y el más difícil de controlar. A nivel medio, donde crecen los arbustos, el fuego avanza menos rápidamente pero afecta no sólo a éstos sino también al estrato herbáceo -malezas y matas-. En el nivel inferior, por debajo del suelo, el avance se da a un ritmo mucho más lento, pero el daño que ocasiona el fuego cuando llega a esta parte es mayor que en cualquier otro nivel, ya que quema las raíces y carboniza el humus causando pérdidas irreparables.
En muchas ocasiones los incendios se originan de manera natural o a veces en forma controlada, pero, no en pocas oportunidades estas catástrofes ocurren por descuido, en especial en zonas turísticas naturales o en áreas protegidas donde el hombre vive en estrecho contacto con la naturaleza haciendo campamentos y vida al aire libre.

La tecnología


Definimos a la tecnología como la aplicación de conocimientos para transformar los recursos materiales en productos que faciliten la realización de una tarea.
El uso del conocimiento aplicado, es del uso exclusivo de la especie humana.
Así observamos como los dinosaurios construyeron alguna vez nichos, a los castores construir presas, al perro de pradera hacer madrigueras bajo la tierra, a las hormigas y termitas hacer montículos de arena como antiguos castillos medievales, por mencionar unos pocos.
El avance tecnológico de nuestros días ha tenido un incremento radical. Podemos comparar el desarrollo tecnológico del último año, con el desarrollo tecnológico ocurrido en la última década, así al igual el desarrollo tecnológico de la última década con el desarrollo tecnológico del siglo. Dando así un crecimiento exponencial
Propongo al lector de este ensayo reflexionar sobre los siguientes puntos aquí propuestos:

La tecnología debe ser ambiental

Esta debe cuidar al hombre y a la naturaleza no solo aprovechando al máximo sus recursos materiales y energéticos, si no ambientales, haciéndose parte de un desarrollo sustentable que pueda mantener o mejorar la naturaleza, no creando mutantes ni jugando con ella, si no fortaleciéndola, y restaurando el equilibrio entre las especies.
La tecnología debe ser compartida


Debemos compartir el uso del conocimiento, y no manejarlo como propio, como los países industrializados que dan sus desechos a los países pobres, debemos cuidarlo y respetarlo, pero más que nada compartirlo, ya que solo podremos avanzar si avanzamos junto como una sociedad mundial, sin barreras ni escepticismos, sin yugos ni fronteras.

Las tecnologías de comunicación e información y los nuevos medios

Publicado por Unknown

LOS NUEVOS MEDIOS

Los avances tecnológicos han llevado a los medios a expandirse y contraerse al mismo tiempo. La transmisión digital ha producido más oportunidades más baratas para los difusores, y una mayor opción para los consumidores de los medios. Las organizaciones de medios ahora difunden información a través de una multitud de plataformas para satisfacer a sus audiencias.
Los medios han debido:
diversificar la manera en que ofrecen contenidos
diversificar la velocidad en que el contenido se vuelve disponible
tener en cuenta la infomación crecientemente generada por personas ajenas a los medios.
Algunas organizaciones de medios han respondido con la compra de grandes porciones del mercado de los medios. Estas fusiones pueden ser preocupantes por cuestiones de diversidad y pluralismo.
‘El periodismo ciudadano’ se ha desarrollado e incluye blogueros, usuarios de medios sociales y otras fuentes de información ‘no profesionales’. Las organizaciones de medios tradicionales ya no son más los únicos guardianes de la información que se ha visto democratizada.
IMPLICANCIAS

Hoy en día la información se transmite alrededor del mundo en segundos. Ahora se publica información que de otra manera nunca hubiera sido accesible.
Los ataques contra los manifestantes Neda Agha-Soltan en Irán y Ian Tomlinson en el Reino Unido nunca hubieran sido conocidos sino hubieran sido difundidos usando los nuevos medios.
Wikileaks ha publicado docenas de documentos que revelan corrupción y abusos por parte de aquellos en el poder, incluyendo gobiernos.
Twitter ha sido usado para revelar super-medidas cautelares en el Reino Unido y para inspirar protestas en masa en Túnez.
En 2012, 664 millones de sitios Web ofrecen información y comentario sobre una vasta serie de temas, en muchos idiomas y formas. Comunidades en línea como Wikipedia utilizan los conocimientos de millones de usuarios para crear bases de datos de conocimiento exhaustivas. Los motores de búsqueda proveen herramientas para halla información de una manera rápida y con un esfuerzo mínimo.
En el mundo en desarrollo, las tecnologías de comunicación e información y los nuevos medios son utilizados para ayudar al desarrollo. También ofrecen a las personas viviendo en la pobreza acceso a información que los ayuda a tomar mejores decisiones acerca de sus vidas.




DESAFÍOS A LAS LIBERTADES DE EXPRESIÓN Y DE INFORMACIÓN

A pesar de las grandes ventajas de las tecnologías de comunicación e información y los nuevos medios, existen considerables y nuevos desafíos.
Para el régimen legal tradicional un hablante o autor está dentro de una jurisdicción territorial clara. Sin embargo, en el mundo digital, la ubicación de las ideas y opiniones es poco clara. Por ejemplo, un libanés en Londres puede escribir un blog que está alojado en Japón, acusando al gobierno saudita de corrupción.
Otra ley tradicional sobre los medios dice que los editores son responsables por lo que publican. Pero, ¿quién es el editor en Internet? ¿Es el servidor que almacena el contenido (entre millones de otras páginas), el motor de búsqueda que halla el contenido, o el proveedor de servicio de Internet que entrega el contenido?
Los gobiernos pueden limitar la información que las personas ven bloqueando el acceso de diversas maneras. Mientras que los periódicos pueden solamente ser prohibidos por los jueces, la decisión de bloquear un sitio Web muchas veces parece ser hecha caprichosamente por funcionarios públicos, más que por jueces.
No sólo ha facilitado la digitalización de la información  que los gobiernos puedan bloquear información automáticamente sino que también puedan controlar lo que la gente mira en el momento y con posterioridad.

PROPIEDAD INTELECTUAL

La propiedad intelectual es un área del derecho que se expande crecientemente siendo liderada por empresas de Estados Unidos. Está cambiando de un modelo en el que una persona compra un bien físico (como un libro) y es libre de compartirlo a un modelo en el que una persona solamente tiene una licencia para usar la información (por ejemplo, música digital) ella misma y de cierta manera.

A diferencia de la información física, como los libros, la información digital tiene el potencial de ser copiada, modificada y difundida millones de veces por segundo.

Redes Celulares 4G

Publicado por Unknown



Los operadores celulares del mundo entero han experimentado un enorme crecimiento en el uso de sus redes de telecomunicaciones en los últimos años, mayormente bajo tecnologías 2G (GSM EDGE, 1xRTT, etc..) y tecnologías celulares 3G (EvDO, UMTS, HSDPA, etc..) siendo que la demanda ha superado por mucho a la oferta, lo que ha ocasionado caídas y severos problemas de tráfico en dichas redes, que se convierten en incomunicación y desconexión hacia los usuarios.
En México no hemos sido ajenos a esta situación y las caidas de señal, problemas en la conmutación así como saturaciones repentinas de las redes cada vez son más frecuentes. Operadores celulares grandes como Telcel o AT&T en Estados Unidos incluso han reconocido públicamente que sus redes han sido rebasadas por el uso de internet móvil desde Smartphones, mientras que operadores más pequeños como Iusacell, han tenido múltiples caidas severas en sus redes durante los últimos meses de éste 2011.
La razón primordial es que durante años los operadores celulares se enriquecieron con el uso de servicios menos complejos como los mensajes de texto (sms) o descargas de ringtones y “contenido multimedia”, cuestiones que no son tan demandantes en el uso de internet móvil. Sin embargo, el auge casi repentino de los Smartphones tomó por sorpresa a la mayoría de los operadores e instituciones de telecomunicaciones, quienes menospreciaron a los dispositivos móviles inteligentes durante mucho tiempo, argumentando que al ser equipos más caros nunca lograrían rebasar a los omnipresentes celulares convencionales, algo que ya hoy en día es un pensamiento netamente ridículo. Lamentablemente y afortunadamente estuve ahí para presenciar no una, si no varias veces esta cuestion y al igual que muchos de los que hemos presenciado de cerca la industria de las telecomunicaciones, puedo atestiguar que la revolución de los smartphones no provino directamente de los operadores celulares si no de las marcas y fabricantes de Smartphones quienes han empujado los límites de lo posible de cara a los usuarios a lo largo de la última década.
Actualmente, las velocidades alcanzadas en tecnología celular 3G promedian menos de la mitad de lo que alguna vez fueron, cuestión que no solo observamos en latinoamérica si no que impacta incluso en países y regiones totalmente desarrollados como lo son Europa o Estados Unidos.
Lo más “triste”, si es que podemos catalogarlo bajo una emoción.., es que el plan para que los operadores celulares amplien sus negocios y por ende, la capacidad de sus redes de telecomunicaciones, radica en la colocación de nuevas y “mejores” redes celulares, las cuales son ofrecidas a los consumidores y a la industria en general en forma de un nuevo concepto de velocidad: 4G.

Después de que la ITU otorgara el título de “4G” a la tecnología HSPA+ que originalmente era considerada como tecnología de “3.5G” o en el mejor de los casos “3.9G”, una inmensa oleada de operadores alrededor del mundo han comenzado a vender la idea de que el paso entre una tecnología y otra, es la mejor solución a los problemas de conectividad y velocidad de los clientes, siendo corporativos o consumidores.
La realidad es que el problema va mucho más alla de la terminología de marketing con el que denotan a las tecnologías de acceso móvil 3G o 4G y ello va directamente a la cuestión de que el espectro radioeléctrico de los países es limitado y se está acabado rápidamente. Si a esto sumamos la falta o el exceso de regulación por parte de los gobiernos alrededor del mundo en torno al manejo del espectro radioeléctrico, pues la situación de los operadores celulares se complica más, razón por la cual, licitaciones de espectro son tan competidas y controversiales como lo hemos presenciado aquí mismo en México con Televisa, Telcel, Movistar, Nextel y Iusacell actuando como niños pequeños por una rebanada del pastel radioeléctrico…
La cuestión radica en que el acceso a internet móvil será cada vez más necesario y a la vez su precio se mantendrá “estable” durante al menos 2 o 3 años, siendo que para estas fechas del 2011, podríamos llegar a hablar de algún tipo de “convenio secreto” entre operadores celulares para evitar guerras de precio sin sentido que sólo abaratan el precio y eliminan la rentabilidad de la venta de acceso a internet móvil.
Se está comenzando a hablar de que el 2013 será el año en que los datos móviles dejarán de ser rentables, siendo que su continuo abaratamiento y mayor demanda, está forzando a los operadores a invertir más en costos operaciones y en cuestiones de ampliación de capacidad en sus redes, costos que se reflejan en miles de millones de dólares que los operadores están inviertiendo año con año tan sólo para mantener las paupérrimas velocidades que hoy tenemos en nuestros smartphones, tarjetas bam y demás dispositivos celulares con acceso a internet.

Aún así, el despliegue de redes HSPA+ de manera masiva, como hoy se está haciendo con Telcel, con Telefónica Movistar y próximamente con Nextel, además de Iusacell que comercializa su red GSM HSPA+ desde el pasado 2010, permitirá un leve espacio de “aire” en lo que las verdaderes redes 4G son implementadas utilizando LTE en la mayoría de los casos, incluyendo claro está, a Telcel LTE para el 2012 (<- enlace externo a SPK).
La diferencia en la forma de utilización del espectro entre HSPA+ y LTE es distinta, aunque las pruebas y comprobaciones en países con ambas redes han demostrado que la diferencia de cada al usuario es relativamente mínima, tomando como referencia las diferencias entre la red LTE de Verizon y la red HSPA+ de T-Mobile en Estados Unidos, siendo éste último operador, el principal causante de que HSPA+ sea considerada como una tecnología de 4G.
Actualmente, las limitaciones en el uso de GB en los planes de datos 3G y “4G” de los operadores impiden que la experiencia de uso en Smartphones sea totalmente fluida y sin interrupciones, además de no volver a mencionar las caidas y saturaciones de redes, lo que significa que no todos los usuarios tengan un acceso completo y sin reestricciones a la enorme gama de posibilidades que ofrecen los Smartphones.
En los próximos años, la estabilización de las redes 3G y la llegada de las verdaderas redes 4G bajo LTE o WiMAX permitirán una nueva era de acceso móvil multimedia, algo que también va de la mano con el abaratamiento en costos de fabricación para que más y más electrónicos, vehículos y electrodomésticos tengan capacidades de comunicación inalámbrica celular y dar pie a una nueva revolución en lo que a servicios web se refiere.


Ese mundo “100% conectado” del que tanto nos han hablado en comerciales sin duda está llegando poco a poco y la tendencia consumista del mundo sólo es capaz de acelerar el proceso en los próximos años. Siendo que estoy seguro que a lo largo de la próxima década seremos testigos de cambios aún más radicales en la forma en la que nos comunicamos, nos entretenemos y hacemos negocios.

Tecnología Biométrica, el futuro de la seguridad para móviles

Publicado por Unknown

Con las nuevas amenazas informáticas y de acceso a dispositivos móviles, los usuarios esperan una nueva generación de seguridad. Según un estudio hecho por Ericsson, el 52% de los usuarios de móviles espera que en el 2014 se implemente un sistema completo de seguridad biométrica, donde la huella digital o el iris del ojo, sea la llave para acceder a nuestro dispositivo de comunicación.
Los sistemas Biométricos llevan años desarrollándose, pero apenas recientemente se perfilan como una posible solución masiva, para elevarlos sistemas de seguridad y acceso a dispositivos de telefonía móvil. En la actualidad, se puede ver este tipo de tecnología para ingresar a oficinas, gimnasios e incluso, a estadios. Con la llegada de la tecnología Touch ID, se podrán capturar las huellas digitales desde la pantalla del dispositivo, lo que permitiría realizar una verificación de identidad, que permita solamente al dueño del dispositivo desbloquear el móvil, sin tener la necesidad de utilizar contraseña, ya que nuestra propia huella sería la contraseña más fuerte e infranqueable para cualquier pirata.
El inicio de esta nueva tecnología se podrá probar en el iPhone 5S y en el Tablet de la casa HTC llamado One Max. Además, otros dispositivos electrónicos como las consolas de videojuegos Xbox One y PS 4, también estarían utilizando una tecnología similar para el reconocimiento del iris del usuario. También, se perfila el Lenovo ThinkPad 2 como usuario de dicha tecnología de seguridad.
 Todo parece indicar que estamos ante el inicio de una nueva era en sistemas de seguridad para dispositivos móviles, los cuales, permitirán sólo al usuario o dueño del dispositivo poder utilizar el móvil, tablet o cualquier otro equipo que utilice la seguridad biométrica. De esta manera, se pretende disminuir robos y por supuesto, accesos no autorizados.
Pero esta tecnología podría ir mucho más allá, ya que no solamente podrá ser utilizada para desbloquear el equipo, o para autorizar comprar en eBay o Amazon, ya que también se podrá aplicar para ingresar a cuentas de e-mail, cuentas de bancos y una enorme cantidad de ingresos que requieran contraseñas, lo que no sólo disminuirá los delitos informáticos, sino que también marcará el fin de la era de las contraseñas, que muchas veces se nos olvidaban o simplemente, nos eran robadas.

 Sin embargo, el sistema tiene debilidades que de seguro, serán explotadas por los piratas informáticos, es por esta razón, que los expertos recomiendan combinar dicha tecnología con otro sistema de autentificación. Sólo nos resta esperar a ver, cómo se desarrolla esta nueva tecnología de seguridad en dispositivos móviles.

Pantallas Flexibles

Publicado por Unknown


En el año 2005 escribí una editorial “Vistazo al Futuro del Cómputo Móvil” (el cual he rescatado recientemente..) en el que exploraba las posibilidades de lo que hoy en el presente y que utilizamos habitualmente y llevamos con nosotros en nuestros bolsillos o en la cintura todo el tiempo: Los Smartphones.
Si bien la evolución de la forma de los dispositivos móviles ha evolucionado mucho desde sus inicios a finales de los 90´s, la realidad es que algo de la genética principal se ha mantenido y es que la pantalla de nuestros Smartphones, aún con todos los miles de pixeles que ahora cuentan, con tecnología que permite mostrar millones de colores y con una definición sorprendente, sigue siendo en su amplísima mayoría y escencia, un pedazo duro de distintos materiales que imposibilita la divergencia en el diseño de los Smartphones.
Es por eso que en los últimos años, el desarrollo de pantallas flexibles ha tomado gran relevancia en los laboratorios de investigación de fabricantes y proveedores de componentes electrónicos, ya que dentro de muy poco (calculo 2 a 3 años), los fabricantes se verán forzados a innovar más allá de la clasica forma de “lozeta multitáctil” que hoy observamos en más del 90% de los dispositivos móviles de gama alta.
Mucho se ha hablado sobre los conceptos de diseño que podremos ver en el futuro a mediano plazo, una vez que los problemas de producción y fabricación masiva de pantallas flexibles sean resueltos claro está, entre los cuales encontramos al Nokia Morph que va más allá de la flexibilidad y se integra de lleno en la nanotecnología, cuestión que en mi opinión, aún se encuentra a más de una década de distancia en cuanto a su integración masiva en la vida diaria.
Es cierto que la tendencia está apenas en plena formación y que su desarrollo como tecnología de consumo aún dista algunos años antes de que contemos con dispositivos totalmente flexibles, si bien ya hemos visto con anterioridad algunos prototipos como el Paper Phone, del que publicamos algo en Mayo pasado (2011).
Una de las empresas que más se está esforzando en esta cuestión de las pantallas flexibles es Samsung, quien ha ido tan lejos como fabricar el primer Smartphone de corte masivo, el Nexus S, con una pantalla ligeramente curveada. Sinceramente, tengo todas las expectativas puestas sobre Samsung, siendo el actual líder en Smartphones a nivel mundial.  Hace poco, en Agosto pasado, también les publicamos sobre un conocepto de Smartphone, un Samsung Galaxy Flexible.




















Es posible también que las pantallas flexibles den pié a un nuevo nivel de convergencia, uno que permita que nuestro Smartphone se convierta en nuestra computadora (o tablet) y de ésta manera, contar realmente con un único dispositivo que domine nuestra comunicación y acceso a internet… ya el tiempo nos lo dirá

Nano Celula Solares

Publicado por Unknown

Puede ser que el sol sea la única fuente con suficiente capacidad para hacer que no seamos dependientes de combustibles fósiles. No obstante, atrapar la energía solar es diez veces más caro que obtenerla de las fuentes hasta ahora utilizadas.

A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con otros materiales de la construcción, sino que ofrece la promesa de costos de producción baratos que permitirán que la energía solar se convierta en una alternativa barata y factible.

Poco a poco estamos acabando con los diferentes combustibles que se encuentran en nuestro planeta, una de las pocas fuentes que aún puede ser rescatable es el Sol.
Sin embargo, se necesitan sistemas muy complejos para poder atrapar la energía solar y convertirla en algún sustituto para los combustibles que conocemos actualmente; aparte de que los costos de hacer esto son hasta 10 veces más elevados.
La nanotecnología ha permitido que se tenga en prueba un material fotovoltaico que se aplica como una especie de pintura plástica, aparentemente tendrá el mismo uso que las celdas fotovoltaicas, pero todavía está en pruebas.
Si el material funciona, en poco tiempo lo podremos ver integrado a los materiales de construcción ofreciendo una posibilidad de convertir al Sol en una fuente de combustible factible y económica.

Un grupo de investigadores del Georgia Tech Research Institute, ha desarrollado un nuevo diseño de paneles solares que podría revolucionar la energía solar.
El rasgo principal del nuevo diseño es que está compuesto por torres microscópicas que capturan la luz solar porque tienen un área muy superior a la de los diseños tradicionales de paneles solares fotovoltaicos que son planos.
Estos nuevos paneles tridimensionales producen una cantidad 60 veces superior de electricidad que las células solares comunes. Capturan casi toda la luz que les llega, y también pueden hacerse de un tamaño más reducido y con un peso menor y una complejidad mecánica superior.

Esas pequeñas torres, que componen los paneles solares 3D, apenas miden 100 micrones de altura, construidas a partir de millones de nanotubos de carbono. Los paneles solares convencionales reflejan mucha de la luz que les llega, y reducen así la cantidad de energía que pueden generar, pero este nuevo diseño atrapa y absorbe la luz que recibe debido a la estructura de torres que pueden recibir la luz de diferentes ángulos. De esta forma también permanecen eficientes aunque el sol no los ilumine de forma directa.
Este nuevo descubrimiento fue realizado para poder crear paneles de menor tamaño para satélites y naves espaciales, pero los investigadores dicen que podría revolucionar la utilización comercial y residencial de paneles solares, ya que serían más livianos, pequeños y eficientes.

También llega un spray de paneles solaresCiencia y Medio Ambiente Pintura que genera energía solar Las casas, los coches o la ropa podrían producir su propia electricidad gracias De Texas o Tejas llega una noticia sorprendente: se desarrolló un nuevo tipo de aerosol panel solar mas barato. Este es un sistema que le permite hacer un panel solar a costos muy bajos y donde los necesite para crear energía. Pintar con esa sustancia, el techo, el garaje se puede crear una potencia en su propia casa.El tiempo necesario para que esto se convertirá en una alternativa viable es de 5 años, esta es una tarea muy ardua de algunos investigadores británicos que quieran comercializar el spray para grandes áreas, como los supermercados. Esta es una pintura que contiene nano células solares mucho más barato que el silicio, pero capaz de producir la misma eficiencia energética.El problema de la utilización de energías renovables de hoy es muy discutida en términos de eliminación de los propios paneles solares, que después de unos 25 años, deberá ser sustituido y eliminado de forma adecuada. Gracias a este spray revolucionario, utilizando la energía solar será realmente un ciclo completo de todos ambientalmente energia sostenible.

MEDIO AMBIENTE :
Se entiende por medio ambiente al entorno que afecta y condiciona especialmente las circunstancias de vida de las personas o la sociedad en su vida. Comprende el conjunto de valores naturales, sociales y culturales existentes en un lugar y un momento determinado, que influyen en la vida del ser humano y en las generaciones venideras. Es decir, no se trata sólo del espacio en el que se desarrolla la vida sino que también abarca seres vivos, objetos, agua, suelo, aire y las relaciones entre ellos, así como elementos tan intangibles como la cultura. El Día Mundial del Medio Ambiente se celebra el 5 de junio.
Como sustantivo, la palabra medio procede del latín medium (forma neutra); como adjetivo, del latín medius (forma masculina). La palabra ambiente procede del latín ambiens, -ambientis, y ésta de ambere, "rodear", "estar a ambos lados". La expresión medio ambiente podría ser considerada un pleonasmo porque los dos elementos de dicha grafía tienen una acepción coincidente con la acepción que tienen cuando van juntos. Sin embargo, ambas palabras por separado tienen otras acepciones y es el contexto el que permite su comprensión. Por ejemplo, otras acepciones del término ambiente indican un sector de la sociedad, como ambiente popular o ambiente aristocrático; o una actitud, como tener buen ambiente con los amigos.
Aunque la expresión medio ambiente aún es mayoritaria, la primera palabra, "medio", suele pronunciarse átona, de forma que ambas palabras se pronuncian como una única palabra compuesta. Por ello, el Diccionario panhispánico de dudas de la Real Academia Española recomienda utilizar la grafía medioambiente, cuyo plural es medioambientes.

y más...
Los mini cables de silicón convertirán la luz en energía eléctrica, produciendo el equivalente a 200 picowatts. La luz captada produce electrones en la parte exterior de los cables, transmitiéndose hacia el núcleo en donde se producen descargas eléctricas. Aunque un picowatt es sólo dos billonesimas partes de un watt, Liebre explica que, a una escala nano, es suficiente energía para hacer funcionar aparatos eléctricos que estarán dentro de nuestro cuerpo, como GPS.
Actualmente estas micro células solares tienen una eficiencia de entre el 3.5 y el 5%, dependiendo de la intensidad de la luz que reciban (nada impresionantes por el momento). El siguiente paso es buscar la manera de hacer más eficientes las células, una vez que alcancen el 15% se espera puedan empezar a usarlas en cosas practicas.
Como siempre encontramos proyectos en sus primeros estados de gestación, pero estamos seguros que en unos años estaremos hablando sobre estas células aplicadas en nuestra vida diaria.
5
Uno de las grandes metas de los investigadores especializados en energía solar, es lograr paneles solares orgánicos que puedan ser producidos de forma sencilla y barata, o sea que sean comercializables, y que sean películas delgadas para así poder utilizarlo en un amplio rango de lugares y situaciones.
Uno de los grandes obstáculos es lograr que esos materiales a base de carbono formen estructuras apropiadas en una escala nanométrica para ser altamente eficiente en convertir la luz en electricidad.
La meta del investigador David Ginger y colegas de la Universidad de Washington, Estados Unidos, es desarrollar paneles solares hechos de plásticos de bajo coste que tendrán una eficiencia del 10 por ciento, y podrían ser fácilmente fabricados.
Ginger ha encontrado la forma de hacer imágenes de burbujas y canales diminutos dentro de un panel solar, a nanoescala, 10 mil veces más pequeño que un cabello humano. Las burbujas y los canales formados dentro de un polímero por un tratamiento térmico llamado annealing o recocido, son usadas para mejorar el desempeño de los materiales.
Como ya vimos aquí en Sustentator en diversas ocasiones, la nanotecnología es el futuro de la energía solar, y es por allí por donde se está consiguiendo la mayor eficiencia y flexibilidad en los paneles solares.
Ginger y colegas han descubierto que al mezclar dos materiales en una delgada película, y luego calentándola mejora su desempeño. En el proceso, se forman burbujas y canales casi como si se tratase de una torta.
Estas burbujas y canales afectan la eficiencia con que un panel solar convierte la luz en electricidad, y también cuanta de la corriente eléctrica llega a los cables que salen del panel solar. El número de burbujas y canales y su configuración puede ser alterada de acuerdo a cuanto calor se le aplique y por cuanto tiempo.
La estructura exacta de burbujas y canales es crítica para el desempeño de un panel solar, pero la relación entre el tiempo de cocinado, el tamaño de las burbujas, la conectividad de los canales y la eficiencia final del panel es difícil de comprender. Por eso es que lo que están haciendo Ginger y colegas es buscar la configuración perfecta.

Cuando Ginger y su equipo logren la meta del 10 por ciento de eficiencia en convertir la luz en electricidad, los paneles solares de plástico flexibles podrán producirse a gran escala con bajo coste, y podrán usarse en cualquier lado, desde ropa o mochilas para cargar dispositivos electrónicos, hasta en los mismos dispositivos, en venta.

Mundo

Datos personales

E-mail - Pedido

Chiste de Hoy

Calendario

gadgets para blogger descargar juegos para xo

Popular Posts

Seguidores