La aerodinámica

Publicado por Unknown




es la rama de la mecánica de fluidos que estudia las acciones que aparecen sobre los cuerpos sólidos cuando existe un movimiento relativo entre estos y el fluido que los baña, siendo este último un gas y no un líquido, caso este que se estudia en hidrodinámica.

Introducción
Resultado de imagen para tecnologia aerodinamica
La aerodinámica se desarrolla a partir de las ecuaciones de Newton. Con las ecuaciones de continuidad, cantidad de movimiento y energía se pueden obtener modelos que describen el movimiento de los fluidos. Un caso particular ocurre cuando el movimiento del fluido es estacionario, es decir, las propiedades del fluido solo cambian con la posición en el campo fluido pero no con el tiempo, y cuando además se puede despreciar la viscosidad del fluido. Con estas dos características, movimiento estacionario y no viscoso, se puede obtener una función potencial que al ser derivada se obtenga la velocidad del fluido en cada punto del campo. Una vez hayamos obtenido la velocidad del fluido, podremos hallar otras magnitudes importantes. La aerodinámica clásica que explica cómo se genera la sustentación en los perfiles aerodinámicos se basa en movimientos potenciales. Este tipo de movimiento es ideal, ya que la viscosidad nula nunca se consigue.

Resultado de imagen para tecnologia aerodinamica

Modelando el campo del fluido es posible calcular, en casi todos los casos de manera aproximada, las fuerzas y los momentos que actúan sobre el cuerpo o cuerpos sumergidos en el campo fluido. La relación entre fuerzas sobre un cuerpo moviéndose en el seno de un fluido y las velocidades viene dada por los coeficientes aerodinámicos. Existen coeficientes que relacionan la velocidad con las fuerzas y coeficientes que relacionan la velocidad con el momento. Conceptualmente los más sencillos son los primeros, que dan la fuerza de sustentación {\displaystyle {L}} , la resistencia aerodinámica {\displaystyle {D}}  y fuerza lateral {\displaystyle {Y}}  en términos del cuadrado de la velocidad (V2), la densidad del fluido (ρ) y el área transversal 

Divisa Virtuales

Publicado por Unknown

Divisas virtuales



Mucho se ha hablado, especulado, criticado y hasta censurado este tipo de moneda. Las criptodivisas representan un método de intercambio personal que no involucra instituciones gubernamentales ni económicas para llevar a cabo una transacción. Debido a esto, el status quo ha tratado de eliminar o limitar su existencia. La más famosa de ellas sin duda es Bitcoin y su principal papel ha sido demostrar el gran interés del público en general hacia este nuevo método de intercambio. En la era digital, el dinero convencional que se intercambia mano a mano cada vez es menos esencial ―hasta las tiendas de la esquina aceptan tarjetas de crédito― y esto parece ser el primer síntoma de que se avecina un importante cambio. La existencia de las criptodivisas es innegable y aunque su futuro aún es incierto, podría jugar un rol fundamental en nuestro futuro sistema de organización social. Si quieres saber más del tema te recomendamos leer ¿Qué es Bitcoin y cómo funciona?¿Qué es Bitcoin?


Bitcoin es una criptodivisa, llamada así porque se trata de un medio digital de intercambio basado en principios de criptografía. Básicamente, Bitcoins son monedas digitales que se transfieren de persona a persona sin necesidad de la interferencia de un banco o un sistema centralizado. El dinero puede cambiar de manos, sin importar el lugar de residencia o distancia entre los participantes, gracias al uso de Internet. Una de sus principales ventajas es que los cargos por transacción son mínimos si se les compara con métodos tradicionales. Por ejemplo, una transacción de $6.5 MDD se llevó a cabo por medio de Bitcoin de manera casi inmediata con una tarifa de transferencia de $0.06 USD (6 centavos), mientras que el mismo servicio por medio de PayPal hubiese tenido un costo de $188,500 USD y hubiera tardado de 3 a 5 días hábiles en ser aprobada.

A menudo, Bitcoin es descrito como “el Internet del dinero”
Esta enorme reducción de tiempo y de costos de operación se explica de manera sencilla. A diferencia de grandes bancos que requieren enormes rascacielos, empleados, computadoras, y costosos servidores, Bitcoin aprovecha el poder de Internet para que cada una de las computadoras en su red se encargue de procesar la información.
Esta moneda virtual puede ser utilizada por cualquier persona y, debido a que no es controlada por ninguna institución, no es posible que las cuentas de los usuarios sean congeladas. Por supuesto, la ausencia de respaldo por parte de una institución económica presenta tanto ventajas como desventajas, aspectos que veremos más adelante.

¿Cuál es el origen de Bitcoin?


La creación de esta moneda es un pequeño cuento de hadas de Internet. La prueba de concepto de Bitcoin surgió por primera vez en 2009 y fue creada por la figura misteriosa de Satoshi Nakamoto, de quien realmente no se sabe nada, pues no concede entrevistas y sólo se comunica por correo electrónico. Sus datos personales son tan escasos que muchos piensan que su nombre es un pseudónimo de un grupo de gente que creó la divisa. El nombre corresponde a la cultura japonesa, en la cual Nakamoto significa “origen central” o “el que vive en medio”, lo que da fuerza a esta teoría. Se dice que Nakamoto abandonó el proyecto a finales de 2010 sin explicaciones.

La única foto conocida del supuesto Satoshi Nakamoto
La única foto conocida del supuesto Satoshi Nakamoto
Bitcoin tiene muchas ventajas, y su modelo económico está basado en el oro, pues para obtener unidades se lleva a cabo una serie de procedimientos digitales comparables con el proceso mediante el cual se mina este metal precioso. Así mismo, son un recurso finito, no se devalúan con el paso del tiempo, su obtención se vuelve cada vez más complicada y las personas que comenzaron a minar durante sus inicios poseen una cantidad mucho mayor.

¿Quién controla Bitcoin?

El control de la moneda yace en la comunidad entera, y para que haya un cambio en su funcionamiento o sus regulaciones, la mayoría de sus usuarios debe llegar a un consenso, pues su forma de operar es muy similar a aquella de una red P2P, pero éste es un tema que explicaremos más adelante. Lo importante aquí es entender que ningún pequeño grupo, gobierno o individuo puede interferir con la producción de dinero, ya sea acelerando o desacelerando su crecimiento. Claro que esto tiene sus desventajas, debido a que al carecer de respaldo por parte de una institución financiera, no hay manera de reclamar por errores de depósito o algún tipo de fraude, ya que las transacciones son finales, y una vez hecha la transferencia no hay nada que se pueda hacer. Asimismo, si un usuario pierde el password de su cuenta, o su disco duro muere y éste no tenía respaldadas sus Bitcoins en un servicio especializado, deberá despedirse de su dinero por siempre.

¿Dónde se genera cada Bitcoin?


Al ser virtuales, cada moneda tiene su origen en una computadora y sólo hace falta bajar un programa llamado Bitcoin Miner (como GUI-MINER) que, como su nombre lo indica, mina para obtener Bitcoins. El término minar, en este caso, significa “poner a trabajar a la computadora para resolver problemas matemáticos que se incrementan en complejidad cada determinado tiempo”. Una vez resuelto el problema, el usuario es recompensado con una Bitcoin.


No obstante, las cosas no son tan fáciles. Como mencionamos, la complejidad de los problemas aumenta cada vez y se calcula que, en la actualidad, son tan difíciles de resolver, que minar una Bitcoin tomaría a una computadora de oficina convencional de 5 a 10 años; sin embargo, si se usa el poder conjunto de todas las computadoras en la red, esto se resuelve en alrededor de 10 minutos, lo que, al final, recompensa a la computadora que solucione la situación.

Las nuevas monedas se obtienen de la misma manera: minando pero ahora se requieren computadoras de enorme poder (equipadas, por lo general, con tarjetas de video ATI) dedicadas por completo a adquirir esta divisa. Por supuesto, al inicio de la vida de esta moneda, era muy fácil minar Bitcoins y mucha gente logró tener cientos de miles de ellas.


Pero si lo que hoy buscas es obtener Bitcoins con el propósito de conseguir dinero rápido, lamentamos decirte que llegaste un poco tarde a la fiesta, pues la “fiebre del oro” de la criptodivisa ya vio sus mejores días y te tomará más tiempo y recursos minar una sola moneda de lo que obtendrás al venderla. Así que te encontrarás en la misma situación que los cazadores de oro en el río Hudson: metiendo las manos en el lodo por muy poca recompensa. Si quieres intentarlo, siempre tendrás esperanza, ya que el sistema funciona como una lotería y si tienes muchísima suerte, tu computadora puede ser la que resuelva el problema que te haga acreedor a 1 Bitcoin. Aunque lo más probable es que al obtenerla, hayas gastado en la cuenta de luz más de lo que vale.

Por el momento, la forma más fácil de obtener Bitcoins es comprarlas directamente a otro usuario a cambio de cualquier moneda local (dólares, por lo general) en sitios como mtgox.com, o recibirla como pago a cambio de algún bien o servicio.

¿Cómo funciona Bitcoin?

Bitcoin está basada en un sistema llamado Peer-to-Peer (conocido en español como red de punto a punto), en el cual todos los miembros de la comunidad comparten ciertas partes de la información y cuyo conjunto conforma el total, así que no existe un servidor principal donde se almacenen los datos. Por ejemplo, si quisiéramos guardar el abecedario usando este sistema, una computadora de la comunidad tendría las letras de la A a la J, otra tendría de la K a la Q y la última de la R a la Z, de manera que, en conjunto, estas computadoras tendrían el abecedario completo. En este modelo, sólo estamos usando 3 computadoras y en el caso del abecedario podríamos tener sólo 27 máquinas, cada una guardando una letra del alfabeto, pero en el caso de la era digital un sinfín de computadoras pueden almacenar una inimaginable cantidad de bits y bytes de un archivo en particular.

Organigrama de una red de punto a punto
Organigrama de una red de punto a punto
Pero, si en este ejemplo se destruye una computadora, con ella desaparece ese fragmento del abecedario. Es por eso que al sistema se le agrega redundancia, lo que significa que hay varios equipos replicando la misma información, de manera que puede haber 10, 1000 o 1 millón de computadoras que tienen de la A a la N mientras que algunas sólo cuentan con la J y otras la D. Cabe destacar que en esta red, si una de las computadoras desea tener por sí misma el abecedario completo, lo puede hacer, pero es importante notar que esto no le daría más importancia sobre las demás, pues todos estos nodos se comportan como iguales y ninguno tiene jerarquía sobre otro.

De esta manera funciona una red Peer-to-Peer (P2P), pero ¿cómo aplica esto a las criptodivisas?

Cada una de las computadoras en donde se ha instalado el programa de Bitcoin tiene un libro de contabilidad llamado Ledger (o block chain); en él, se registran todas y cada una de las transacciones efectuadas por los usuarios, desde la primera en su historia hasta la más reciente. Los datos son repartidos entre todos los nodos de la red y un usuario puede leer información de toda transferencia. El conjunto de computadoras que generan Bitcoin tienen el total de este Ledger y se sincronizan frecuentemente para siempre tener la información al minuto.


Con el fin de asegurar que cada transacción es válida, éstas cuentan con un algoritmo que representa un problema que debe ser verificado y resuelto por las computadoras en la red, y es aquí donde las máquinas que minan tienen su función en el sistema, pues son ellas quienes, en conjunto, resuelven el problema, lo que da validez a la transacción. Cada transferencia se revisa muchas veces (idealmente 6) por múltiples computadoras con el fin de determinar si esta cuenta con todos los requisitos para registrarse como válida, lo que reduce a una cantidad mínima la posibilidad de intercambios fraudulentos.

Algo digno de destacar es que un usuario con conocimiento suficiente puede ver cualquier línea de código que compone el programa para entender cómo funciona, pero no es posible que la cambie a menos de que exista un consenso de la mayoría de los usuarios. Es por esto que no hay individuo, gobierno u organización que tenga la facultad de tomar decisiones sobre el valor y cantidad de su moneda y el incentivo de mantenerla en buena forma yace en el interés de la comunidad en que la red funcione lo mejor posible; su patrimonio depende de ello.




Modularidad

Publicado por Unknown

Modularidad



Uno de los principales problemas que plagan a nuestra sociedad es la obsolescencia planeada. El hecho de que las compañías diseñen sus productos para cumplir una expectativa de vida corta no sólo contamina el planeta, sino que desperdicia una enorme cantidad de recursos no renovables. Si una pequeña pieza de un producto se descompone, conviene más tirarlo a la basura y comprar uno nuevo. Lo mismo sucede con los dispositivos que salen cada año, pues a veces un mejor procesador justifica comprar un artículo totalmente diferente. Una solución a este problema es la llamada modularidad, la cual consiste en la posibilidad de intercambiar las piezas inservibles por nuevas, lo que elimina el desperdicio innecesario. Mediante Project Ara, Google planea liderar este rubro con el primer teléfono con piezas que el usuario puede cambiar según sus necesidades. La propuesta es muy interesante y realmente podría ser el inicio del futuro modular.
Modularidad
Un módulo es un componente de un sistema más grande y opera dentro del sistema independientemente de las operaciones de otros componentes.

La modularidad es una opción importante para la escalabilidad y comprensión de programas, además de ahorrar trabajo y tiempo en el desarrollo.



La modularidad es la capacidad que tiene un sistema de ser estudiado, visto o entendido como la unión de varias partes que interactúan entre sí y que trabajan para alcanzar un objetivo común, realizando cada una de ellas una tarea necesaria para la consecución de dicho objetivo. Cada una de esas partes en que se encuentre dividido el sistema recibe el nombre de módulo. Idealmente un módulo debe poder cumplir las condiciones de caja negra, es decir, ser independiente del resto de los módulos y comunicarse con ellos (con todos o sólo con una parte) a través de unas entradas y salidas bien definidas. http://www.revistaciencias.com/publicaciones/EkEppkkyAlHWhlhKZu.php

Ingeniería de software es la producción de software con calidad. Calidad implica dos tipos de factores: internos y externos.

Los factores externos son cualidades que son "detectadas" por los usuarios, por ejemplo: velocidad y facilidad de uso. Los factores internos son cualidades perceptibles por profesionales del área de la computación, por ejemplo: modularidad y legibilidad.

Factores externos:

1. Correctitud: Capacidad para realizar con exactitud las tareas definidas en las especificaciones.

2. Robustez: Capacidad de reaccionar apropiadamente ante condiciones excepcionales.

3. Extensibilidad: Facilidad de adaptar los productos de software a los cambios en la especificación.

4. Reutilización: Capacidad de los elementos de software de servir para la construcción de muchas aplicaciones diferentes.

5. Compatibilidad: Facilidad de combinar unos elementos de software con otros.

6. Eficiencia: Capacidad para exigir la menor cantidad posible de recursos (tiempo de procesador, espacio de memoria, ancho de banda, etc.).

7. Portabilidad: Facilidad de transferir los productos de software a diferentes entornos de hardware y software.

8. Facilidad de uso: Cubre la facilidad de instalación, de operación y de supervisión.


9. Funcionalidad: Conjunto de posibilidades que proporciona un sistema.

Electricidad inalámbrica

Publicado por Unknown

Electricidad inalámbrica

Desde las épocas de la mente brillante de Nikola Tesla, el ser humano ha buscado transmitir electricidad de manera inalámbrica. Se ha logrado esta tecnología hasta cierto nivel al permitir cargar dispositivos móviles en pequeñas almohadillas de transmisión de energía por medio de transferencia inductiva. De momento, este método no es muy efectivo, pues la distancia entre el transmisor y el receptor es muy corta. No obstante, esto podría cambiar en el futuro debido a que investigadores coreanos lograron transferir electricidad a una distancia de 5 metros con la potencia suficiente para cargar hasta 40 teléfonos celulares. Por supuesto, esta tecnología está en sus primeras etapas y aún es muy costosa, pero es muy probable que en el futuro existan estaciones de carga Wi-Power en bares, restaurantes y establecimientos comerciales que nos permitan recargar la batería del celular mientras éste se encuentra en nuestro bolsillo, sin necesidad de cables. Te invitamos a leer ¿Cuáles son los retos que enfrenta la carga inalámbrica?
¿Cuáles son los retos que enfrenta la carga inalámbrica?
La tecnología ya existe, pero diversos factores retrasan su éxito en el mercado masivo
Nos encontramos a principios de 2014, pero sólo bastaron un par de meses para que cientos de nuevos dispositivos móviles y portables fueran presentados tanto en el CES como en el MWC. Los más recientes smartphones y tablets de las marcas más importantes ya no estarán solos, los relojes y los brazaletes inteligentes llegaron para quedarse y proveer a tu muñeca de un poder nunca antes visto. No obstante, el incremento en la cantidad de dispositivos que usamos significa un mayor número de cables y cargadores, así como más energía y tiempo necesarios para recargar las baterías.

Tesla es el mayor referente de la transmisión inalámbrica de energía
Tesla es el mayor referente de la transmisión inalámbrica de energía
Desde los inicios del teléfono celular hemos dependido de cables conectados directamente a la corriente eléctrica para recargar su pila. Durante años, nos acostumbramos a que ésta durara alrededor de una semana, pero con la llegada de los smartphones y su gran capacidad de procesamiento y conectividad a Internet, esos días quedaron atrás. Ahora, es necesario recargar la batería de nuestro teléfono por lo menos 1 vez al día, incluso más veces si nuestros hábitos así lo dictan.

La carga inalámbrica es una alternativa real que podría eliminar algunos de los cables y cargadores, así como volver más eficiente el proceso de recarga. Este tipo de tecnología no es nueva: desde el siglo XIX, Nikola Tesla llevó a cabo experimentos y condujo una ardua investigación acerca de la transmisión de energía a través del aire. Más recientemente, nuevos productos que adaptan este tipo de tecnología han surgido, pero distintos factores no han permitido que la energía inalámbrica se convierta en el común denominador para la recarga de baterías. En algún momento sucedió algo similar cuando se dio a conocer la conectividad inalámbrica por Bluetooth y Wi-Fi, mismas que ahora se encuentran en casi todos los dispositivos y establecimientos alrededor del mundo.

En el presente artículo analizaremos el contexto actual de la carga inalámbrica y los retos que deberá superar para convertirse en el nuevo estándar para la recarga de todo tipo de baterías.

Tipos de carga inalámbrica



Existen 3 distintos tipos de carga sin cables: por radio, por inducción y por resonancia. La carga por medio de ondas de radio es adecuada en dispositivos que requieren poca energía y que se encuentren dentro de un radio de 10 metros del transmisor de la carga.Principalmente se usa para recargar las baterías de implantes médicos, como aparatos para la sordera y marcapasos. El transmisor envía una onda de radio con frecuencia de 915 MHz, la cual es convertida en energía por el dispositivo. Este método ofrece gran flexibilidad, pero la obtención de carga es baja y expone a las personas a contaminación eléctrica, mejor conocida como smog eléctrico.

La carga por inducción funciona por medio de bobinas que transmiten y reciben energía eléctrica, pero la separación entre ellas debe ser mínima para que la transmisión sea efectiva. Los cepillos de dientes electrónicos han utilizado este tipo de carga durante años, y actualmente el mercado de los teléfonos celulares es el que cuenta con mayor crecimiento en la adopción de esta tecnología. El ejemplo más claro es el Powermat de Duracell, un cargador que permite colocar dispositivos sobre su superficie lisa para recargarlos sin necesidad de cables, excepto claro, el cable que va del Powermat a la corriente eléctrica.

La carga por resonancia servirá para recargar automóviles eléctricos
La carga por resonancia servirá para recargar automóviles eléctricos
El tipo de carga por resonancia puede llevarse a cabo con una separación de hasta 5 metros; al igual que en la carga por inducción, se emplean 2 bobinas de cobre: una que envía y otra que recibe energía. La diferencia es que en este método la transferencia de energía sucede cuando ambas bobinas cuentan con la misma frecuencia. Actualmente, se han efectuado pruebas en las que la carga por resonancia ha logrado entregar aproximadamente 3000 watts con una eficiencia de entre 80% y 90%.

El estándar

Al igual que sucedió con la conectividad inalámbrica, mejor conocida como Wi-Fi, es necesario definir un estándar que permita a los fabricantes integrar en sus dispositivos los elementos de carga inalámbrica que sean compatibles con toda la industria. Existen 3 principales grupos empresariales involucrados en el tema, y cada uno ha desarrollado su propio estándar. Es aquí donde comienza la batalla por definir cuál de éstos será el estándar elegido por todo el mundo.

Rezence es la marca de carga inalámbrica de A4WP
Rezence es la marca de carga inalámbrica de A4WP
Uno de los grupos involucrados es la Alliance for Wireless Power (A4WP). Ésta utiliza una señal de alta frecuencia cercana a los 7 MHz, lo que permite a los dispositivos recargarse mientras se encuentran a una distancia moderada del transmisor. Por su parte, la Power Matters Alliance (PMA) trabaja con una señal de baja frecuencia a 300 kHz, por lo que es necesario que el dispositivo que se desea recargar esté en contacto con el cargador todo el tiempo.

Sin embargo, el contendiente más antiguo es el Wireless Power Consortium (WPC), mismo que en 2008 presentó Qi, la tecnología de carga inalámbrica más usada en la actualidad. Originalmente, la tecnología podía operar a no más de 5 mm de distancia y necesitaba que el dispositivo fuera colocado de manera correcta para que la transmisión de energía comenzara. Este problema ha sido resuelto gracias a que se diseñó una configuración de multibobinas que adapta la frecuencia para compensar cualquier interferencia provocada por algún metal o ser vivo. Esto permite al cargador transmitir energía al dispositivo hasta a 5 cm de distancia.

El estándar Qi es uno de los más importantes

Hasta hace poco, WPC era reconocido como el líder indiscutible de la categoría, sobre todo por la cantidad de empresas que lo respaldan, como HTC, LG y Samsung, además de estar presente en smartphones populares, como el Nexus 4 de Google y el Lumia 920 de Nokia. Sin embargo, apenas el mes pasado, PMA y A4WP firmaron un acuerdo preliminar mediante el cual ambas instancias compartirán su tecnología. Este movimiento cambia las reglas del juego y complica la existencia a Qi. Por su parte, PMA cuenta con el respaldo de AT&T, Google y Starbucks. Los establecimientos de la cadena de cafeterías son algunos de los lugares preferidos por la gente para obtener Wi-Fi gratis, lo que los convierte en la plataforma ideal para implementar e impulsar la tecnología de PMA.

Los retos

Uno de los principales problemas de la transmisión de energía inalámbrica es el tema de la eficiencia. Los cargadores inalámbricos generan un desperdicio energético mucho mayor que los cargadores tradicionales: hasta 30% de energía eléctrica se pierde en el proceso de recarga, lo que significa mayor gasto y contaminación.

Cada año se desperdician millones de watts por dejar electodomésticos conectados
Cada año se desperdician millones de watts por dejar electodomésticos conectados
En el mundo existen aproximadamente mil millones de smartphones, si consideramos que cada teléfono requiere en promedio de 5 W para cargarse por completo y suponemos que lo hace cada 2 días, el total de energía requerida anualmente sería de 910 mil millones de watts. Si se emplearan cargadores por inducción, esta cifra aumentaría hasta 1.125 mil millones de watts, lo que significa un desperdicio de 225 mil millones de watts. Según la Comisión de Energía de California, la electricidad desperdiciada serviría para dar energía a 35,000 hogares y produciría 100,000 toneladas métricas de dióxido de carbono cada año.

Aún así, los cargadores tradicionales desperdician entre 60 y 100 veces más energía que los cargadores de inducción, aspecto que se debe a la cantidad de electricidad que consumen por mantenerse conectados a la corriente durante varias horas al día, incluso cuando no hay un dispositivo que lo necesite. Una de las ventajas de la carga por inducción es que puede contribuir a la reducción de desperdicio si se implementa en los cargadores la función de apagado automático, la cual se activa cuando no hay un aparato que lo esté usando.

Otro reto importante es la adopción, la cual ha experimentado un crecimiento más lento de lo esperado. Podría pensarse que la falta de materia prima o de empresas interesadas en el desarrollo de esta tecnología son los factores que han frenado la adopción, pero no es así. Para que la carga inalámbrica esté presente en más dispositivos, es necesario llegar a un acuerdo, es decir, definir un estándar.

Starbucks impulsa la adopción de la carga inalámbrica
Starbucks impulsa la adopción de la carga inalámbrica
En la sección anterior introduje brevemente la situación actual de los 3 principales competidores, los cuales buscan imponer su propio estándar. Lo que no mencioné es que Qualcomm se involucró tanto con WPC como con A4WP; para muchos, eso significa que la empresa busca no sólo el beneficio propio, sino también encontrar un punto medio en el que ambas partes puedan ponerse de acuerdo. Aunque eso no ha sido confirmado, contar con un estándar único y abierto disminuirá los obstáculos que frenan la adopción. La historia no miente, basta recordar que tanto el USB como el DVD pasaron por un proceso similar hasta que finalmente se estandarizaron y la adopción se aceleró como consecuencia.

Toq de Qualcomm se carga inalámbricamente
Toq de Qualcomm se carga inalámbricamente
El hecho de que Apple no haya incluido en sus productos ninguna de las tecnologías de carga inalámbrica disponible tampoco contribuye a mejorar la adopción. El iPhone y el iPad son 2 de los dispositivos móviles más vendidos en todo el mundo, el que no sean compatibles con cualquiera de los tipos de carga inalámbrica disminuye la demanda de esta tecnología, al igual que ha sucedido con la conectividad NFC. El tema no es culpar a Apple, pero no hay duda de que sus productos influencian a una gran parte de los usuarios de dispositivos inteligentes. Algunos rumores acerca del próximo lanzamiento del iWatch indican que el reloj podría recargarse de manera inalámbrica, lo cual planta una duda importante: ¿Apple implementará alguno de los estándares actuales o desarrollará uno propio? Si la empresa dirigida por Tim Cook decidiera irse por la segunda opción, el tema de la estandarización podría complicarse aún más.

Finalmente, si se lograr establecer un estándar único para la carga inalámbrica, la cantidad de inversión necesaria para implementar este tipo de hardware en establecimientos comerciales, hoteles, oficinas y lugares públicos, por mencionar algunos, sería muy elevada. Un ejemplo claro es el que vivimos con la introducción del Wi-Fi en México, aunque cada vez más lugares ofrecen Internet inalámbrico, aún nos encontramos en una de las primeras fases de su implementación.


Efecto de la Tecnologia Sobre la naturaleza

Publicado por Unknown

En el último siglo, el planeta tierra ha sido un torturado testigo del desarrollo tecnológico del hombre. Un desarrollo que ha significado muerte y destrucción masiva al planeta que llamamos hogar.
Irónicamente podemos darnos cuenta que el hombre como especie, somos la más inadaptable de todas las especies que han vivido en el planeta, sin considerar nuestro origen divino, o Darwineano, podemos asegurar que el éxito de nuestro dominio tiene base en el desarrollo de nuestra inteligencia.
 Cabe mencionar que esta inteligencia nos ha hecho la mejor y la peor especie que ha habitado este hogar. Me refiero a la mejor, porque hemos aprovecha y usado el ambiente para nuestro beneficio más que otras especies, y a lo peor, porque en ese uso desmesurado e irresponsable hemos destruido en un siglo, lo que un ecosistema tardó en formar en miles de años.
El brillo de la fama, el poder y el dinero ha cegado tanto a los hombres sedientos de conocimientos; que con la ingenuidad de Pandora que jugó con las maldades que azotaban al mundo antiguo según los filósofos griegos, abren las puertas del conocimiento con el interés de dominarlas aún sin tener razón o comprensión de su uso.
 El hombre ahora como especie dominante del planeta, se ha dado el derecho divino para decidir sobre el futuro de las demás especies, acabando a razón de 23 especies por mes. Destruir hábitat naturales en fracciones de tiempo de lo que la naturaleza lo creo, catástrofes, corrupción, contaminación, y todos los defectos del hombre repercuten en la naturaleza; que como una esponja absorbe cada día, cada hora, nuestros hijastros mutantes, esperando el momento en que termine por explotar con una fuerza que acabará con lo que conocemos ahora.

Efectos del uso de la tecnología sobre la naturaleza

Es irónico observar como cada descubrimiento que beneficia al hombre y hace que avance otras 100 años en el conocimiento en apenas 1 hora, de por resultado la destrucción de miles de años de trabajo realizado por la naturaleza en tan solo unos años; refiéreme con ello a los grandes desastres que han atormentado la naturaleza.
La contaminación con plaguicidas, los derrames de petróleo en el mar, los peligros de la radiación nuclear y los incendios forestales amenazan a los ecosistemas de la Tierra. Es esencial para la defensa de la vida en el planeta que se difundan y analicen los errores que han llevado a situaciones de grave daño ecológico.

Los derrames de petróleo

Una de las mayores causas de la contaminación oceánica son los derrames de petróleo. El 46% del petróleo y sus derivados industriales que se vierten en el mar son residuos que vuelcan las ciudades costeras. El mar es empleado como un muy accesible y barato depósito de sustancias contaminantes, y la situación no cambiará mientras no existan controles estrictos, con severas sanciones para los infractores.




El 13% de los derrames se debe a accidentes que sufren los grandes barcos contenedores de petróleo, que por negligencia de las autoridades y desinterés de las empresas petroleras transportan el combustible en condiciones inadecuadas. En los últimos años, algunos de los más espectaculares accidentes fueron el del buque-tanque Valdés de la Exxon, ocurrido frente a las costas de Alaska el 24 de marzo de 1989, y el del petrolero Mar Egeo, el 3 de diciembre de 1992, frente a la entrada del puerto de La Coruña, en España. Otro 32% de los derrames proviene del lavado de los tanques de los grandes buques que transportan este combustible.
Tanto los derrames de petróleo como los incendios forestales afectan gravemente las cadenas tróficas de los ecosistemas.
Los derrames ocasionan gran mortandad de aves acuáticas, peces y otros seres vivos de los océanos. Esto altera el equilibrio del ecosistema y modifica la cadena trófica. En las zonas afectadas, se vuelven imposibles la pesca, la navegación y el aprovechamiento de las playas con fines recreativos.
En los incendios forestales los árboles no son los únicos perjudicados: muchos animales quedan atrapados en el humo, mientras que otros migran.

Los Escapes Nucleares:

Ciertas sustancias propagan energía al desintegrarse sus átomos, y también el calor residual -persistente durante años- que generan. Ese fenómeno, conocido como radiactividad, es particularmente intenso en el caso del plutonio.
En la actualidad, 424 centrales nucleares instaladas en 25 países producen el 16% de la electricidad mundial. Algunos países, como los Estados Unidos, presionados por el terrible accidente de Chernobyl, han anulado los proyectos de construcción de nuevas plantas nucleares.

La explosión registrada en Chernobyl el 26 de abril de 1986 liberó gran cantidad de radiactividad. La nube que se formó se desplazó a otros países, por la acción de los vientos. La zona más contaminada comprendió unos 260.000 km2 de las ex repúblicas soviéticas de Ucrania, Rusia y Belarús, y afectó de manera directa a 2.600.000 habitantes.
Las autoridades soviéticas sólo admitieron oficialmente 31 víctimas, pero se calcula que las emisiones radiactivas produjeron 32.000 muertos en los primeros diez años, y que 400.000 personas debieron ser desplazadas de sus lugares. La explosión del reactor nuclear provocó terribles efectos en la salud de la población: aumento de la mortalidad infantil, cáncer de tiroides, incremento de la cantidad de niños nacidos con leucemia, malformaciones, tumores y otras afecciones, que se transmitirán genéticamente. Además, el desastre causó la destrucción de cosechas enteras y la contaminación de alimentos.
Las centrales nucleares tienen elevados costos de construcción y mantenimiento, y además han demostrado no ser lo suficientemente eficientes. De todas maneras, el desencadenante para el cese de la construcción de algunas plantas en el mundo ha sido el accidente de Chernobyl, Ucrania.
 Otro problema relacionado con los escapes nucleares, y no menos importante por sus consecuencias, es el destino de los residuos radiactivos. En un principio se había optado por verterlos en los fondos oceánicos. Pero pronto se demostró que el procedimiento era poco seguro.
Se han buscado distintas soluciones alternativas, y en la actualidad prosigue el debate. Tal vez el mejor de los métodos propuestos sea el almacenamiento subterráneo, hermético y sin término establecido.
Incendios forestales
Anualmente el hombre desmantela cerca de 12.000.000 de hectáreas de bosque tropical. Sin embargo, esta reducción no es la única que sufren las áreas forestales de nuestro planeta; a ella debe agregarse la explotación desmedida que padecen otros tipos de bosques y la pérdida que ocasionan los incendios.
Más de 7.000.000 de hectáreas de selvas, bosques y matorrales se destruyen anualmente por esta causa. Entre los factores que favorecen este fenómeno se encuentran las altas temperaturas, las sequías y gran falta de humedad y los vientos fuertes y secos que contribuyen a la dispersión del fuego. Lo que empieza siendo una chispa, rápidamente se convierte en un foco de fuego que avanza y no se puede detener ni controlar.
 En el modo de avance de un incendio forestal se pueden distinguir tres sectores. El nivel más alto, el del fuego que ocurre en la copa de los árboles, es decir donde están las ramas y las hojas, es el de avance más rápido y el más difícil de controlar. A nivel medio, donde crecen los arbustos, el fuego avanza menos rápidamente pero afecta no sólo a éstos sino también al estrato herbáceo -malezas y matas-. En el nivel inferior, por debajo del suelo, el avance se da a un ritmo mucho más lento, pero el daño que ocasiona el fuego cuando llega a esta parte es mayor que en cualquier otro nivel, ya que quema las raíces y carboniza el humus causando pérdidas irreparables.
En muchas ocasiones los incendios se originan de manera natural o a veces en forma controlada, pero, no en pocas oportunidades estas catástrofes ocurren por descuido, en especial en zonas turísticas naturales o en áreas protegidas donde el hombre vive en estrecho contacto con la naturaleza haciendo campamentos y vida al aire libre.

La tecnología


Definimos a la tecnología como la aplicación de conocimientos para transformar los recursos materiales en productos que faciliten la realización de una tarea.
El uso del conocimiento aplicado, es del uso exclusivo de la especie humana.
Así observamos como los dinosaurios construyeron alguna vez nichos, a los castores construir presas, al perro de pradera hacer madrigueras bajo la tierra, a las hormigas y termitas hacer montículos de arena como antiguos castillos medievales, por mencionar unos pocos.
El avance tecnológico de nuestros días ha tenido un incremento radical. Podemos comparar el desarrollo tecnológico del último año, con el desarrollo tecnológico ocurrido en la última década, así al igual el desarrollo tecnológico de la última década con el desarrollo tecnológico del siglo. Dando así un crecimiento exponencial
Propongo al lector de este ensayo reflexionar sobre los siguientes puntos aquí propuestos:

La tecnología debe ser ambiental

Esta debe cuidar al hombre y a la naturaleza no solo aprovechando al máximo sus recursos materiales y energéticos, si no ambientales, haciéndose parte de un desarrollo sustentable que pueda mantener o mejorar la naturaleza, no creando mutantes ni jugando con ella, si no fortaleciéndola, y restaurando el equilibrio entre las especies.
La tecnología debe ser compartida


Debemos compartir el uso del conocimiento, y no manejarlo como propio, como los países industrializados que dan sus desechos a los países pobres, debemos cuidarlo y respetarlo, pero más que nada compartirlo, ya que solo podremos avanzar si avanzamos junto como una sociedad mundial, sin barreras ni escepticismos, sin yugos ni fronteras.

Las tecnologías de comunicación e información y los nuevos medios

Publicado por Unknown

LOS NUEVOS MEDIOS

Los avances tecnológicos han llevado a los medios a expandirse y contraerse al mismo tiempo. La transmisión digital ha producido más oportunidades más baratas para los difusores, y una mayor opción para los consumidores de los medios. Las organizaciones de medios ahora difunden información a través de una multitud de plataformas para satisfacer a sus audiencias.
Los medios han debido:
diversificar la manera en que ofrecen contenidos
diversificar la velocidad en que el contenido se vuelve disponible
tener en cuenta la infomación crecientemente generada por personas ajenas a los medios.
Algunas organizaciones de medios han respondido con la compra de grandes porciones del mercado de los medios. Estas fusiones pueden ser preocupantes por cuestiones de diversidad y pluralismo.
‘El periodismo ciudadano’ se ha desarrollado e incluye blogueros, usuarios de medios sociales y otras fuentes de información ‘no profesionales’. Las organizaciones de medios tradicionales ya no son más los únicos guardianes de la información que se ha visto democratizada.
IMPLICANCIAS

Hoy en día la información se transmite alrededor del mundo en segundos. Ahora se publica información que de otra manera nunca hubiera sido accesible.
Los ataques contra los manifestantes Neda Agha-Soltan en Irán y Ian Tomlinson en el Reino Unido nunca hubieran sido conocidos sino hubieran sido difundidos usando los nuevos medios.
Wikileaks ha publicado docenas de documentos que revelan corrupción y abusos por parte de aquellos en el poder, incluyendo gobiernos.
Twitter ha sido usado para revelar super-medidas cautelares en el Reino Unido y para inspirar protestas en masa en Túnez.
En 2012, 664 millones de sitios Web ofrecen información y comentario sobre una vasta serie de temas, en muchos idiomas y formas. Comunidades en línea como Wikipedia utilizan los conocimientos de millones de usuarios para crear bases de datos de conocimiento exhaustivas. Los motores de búsqueda proveen herramientas para halla información de una manera rápida y con un esfuerzo mínimo.
En el mundo en desarrollo, las tecnologías de comunicación e información y los nuevos medios son utilizados para ayudar al desarrollo. También ofrecen a las personas viviendo en la pobreza acceso a información que los ayuda a tomar mejores decisiones acerca de sus vidas.




DESAFÍOS A LAS LIBERTADES DE EXPRESIÓN Y DE INFORMACIÓN

A pesar de las grandes ventajas de las tecnologías de comunicación e información y los nuevos medios, existen considerables y nuevos desafíos.
Para el régimen legal tradicional un hablante o autor está dentro de una jurisdicción territorial clara. Sin embargo, en el mundo digital, la ubicación de las ideas y opiniones es poco clara. Por ejemplo, un libanés en Londres puede escribir un blog que está alojado en Japón, acusando al gobierno saudita de corrupción.
Otra ley tradicional sobre los medios dice que los editores son responsables por lo que publican. Pero, ¿quién es el editor en Internet? ¿Es el servidor que almacena el contenido (entre millones de otras páginas), el motor de búsqueda que halla el contenido, o el proveedor de servicio de Internet que entrega el contenido?
Los gobiernos pueden limitar la información que las personas ven bloqueando el acceso de diversas maneras. Mientras que los periódicos pueden solamente ser prohibidos por los jueces, la decisión de bloquear un sitio Web muchas veces parece ser hecha caprichosamente por funcionarios públicos, más que por jueces.
No sólo ha facilitado la digitalización de la información  que los gobiernos puedan bloquear información automáticamente sino que también puedan controlar lo que la gente mira en el momento y con posterioridad.

PROPIEDAD INTELECTUAL

La propiedad intelectual es un área del derecho que se expande crecientemente siendo liderada por empresas de Estados Unidos. Está cambiando de un modelo en el que una persona compra un bien físico (como un libro) y es libre de compartirlo a un modelo en el que una persona solamente tiene una licencia para usar la información (por ejemplo, música digital) ella misma y de cierta manera.

A diferencia de la información física, como los libros, la información digital tiene el potencial de ser copiada, modificada y difundida millones de veces por segundo.

Mundo

Datos personales

E-mail - Pedido

Chiste de Hoy

Calendario

gadgets para blogger descargar juegos para xo

Popular Posts

Seguidores