Mostrando entradas con la etiqueta Tecnologia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Tecnologia. Mostrar todas las entradas

miércoles, 18 de junio de 2014

Globos para todos

QUÉ ES PROYECTO LOON 

Muchos de nosotros ven Internet como una comunidad global. Pero la realidad es que dos tercios de la población mundial todavía no tienen acceso a Internet. El Proyecto Loon es una red de globos que viajará sobre el límite con el espacio exterior. Está pensado para conectar a las personas que habitan zonas remotas o rurales, para llegar a las zonas con falta de cobertura y para que las personas puedan volver a tener Internet después de una catástrofe.

LA TECNOLOGÍA 
Los globos del Proyecto Loon flotan en la estratósfera, a una altura dos veces mayor que la de los aviones y los globos meteorológicos. En la estratósfera, hay muchas capas de viento que varían en dirección y velocidad. Según la dirección que deban tomar, los globos de Loon ascienden o descienden hacia las distintas capas de viento para movilizarse. Los usuarios pueden conectarse a la red de globos por medio de una antena especial para Internet que se conecta a las edificaciones. La señal rebota desde esta antena hasta la red de globos y, luego, en la señal global de Internet, en la Tierra.

CÓMO FUNCIONA LOON

 NAVEGAR CON EL VIENTO
Los globos del Proyecto Loon viajan a 20 km de la superficie terrestre, en la estratósfera. Los vientos de esta zona están estratificados, es decir, hay muchas capas de viento que varían en dirección y velocidad. El Proyecto Loon utiliza algoritmos de software para determinar dónde deben dirigirse los globos y, luego, los traslada a una capa de viento que sople en la dirección buscada. Como los globos se desplazan con el viento, es posible dirigirlos para formar una gran red de comunicaciones.

 LA ESTRATÓSFERA
 Ubicada en el límite con el espacio exterior, a una altura de entre 10 y 60 km, la estratósfera presenta desafíos únicos de ingeniería: la presión atmosférica es del 1 % con respecto al nivel del mar, y, a su vez, una atmósfera más delgada ofrece menos protección contra la radiación UV y los cambios bruscos de temperatura, la cual puede alcanzar los 80 °C bajo cero. Por medio de un diseño cuidadoso de la cubierta de los globos, que permite hacer frente a esas condiciones, el Proyecto Loon logra aprovechar los vientos invariables de la estratósfera y permanecer por encima de los fenómenos meteorológicos, de la vida silvestre y de los aviones.

CUÁL ES EL OBJETIVO DE LOON
El Proyecto Loon comenzó con una prueba piloto en junio de 2013, cuando se lanzaron treinta globos desde la isla Sur, en Nueva Zelanda, que luego proporcionaron conexión a Internet a un pequeño grupo de voluntarios de la prueba. Desde ese momento, la prueba piloto se expandió para que más personas pudieran participar a través de un área más extensa. Nuestro plan es que el Proyecto Loon continúe expandiéndose durante el transcurso del 2014 para establecer una red ininterrumpida de conectividad alrededor del paralelo 40 sur. De esta forma, los voluntarios ubicados en ese paralelo recibirán un servicio continuo a través de Internet que proviene de los globos.


domingo, 7 de abril de 2013

Adiós al Messenger

Messenger: El fin de una era A partir de mañana se redoblarán los esfuerzos de Microsoft para que los usuarios comiencen a emplear Skype en lugar del ya olvidado Messenger El histórico servicio de mensajería, el Messenger, ya exhibe en la actualidad un banner donde se recomienda a los usuarios migrar a Skype, también de Microsoft. Pero ese esfuerzo del gigante informático se redoblará desde mañana, cuando comenzará la fusión definitiva y por ende la desaparición del viejo mensajero. “Somos conscientes de que puede ser duro despedirse de Messenger; pero no te preocupes. En Skype podrás hablar con tus amigos de la misma forma que en Messenger. Además, todos tus contactos de Messenger se mostrarán en Skype al actualizar e iniciar sesión por primera vez”, indicó Microsoft. La fusión del servicio se extenderá por algunas semanas, por lo que los usuarios podrán durante ese lapso emplear Messenger sin problemas. Sin embargo, en una fecha no divulgada, los servidores del mensajero dejarán de funcionar. Desde mañana los usuarios verán una notificación para actualizar a Skype. “Cuando hagas click en el banner, se abrirá una ventana de instalación con la solicitud de actualización. A través de este asistente de instalación se instalará Skype y se desinstalará Messenger automáticamente”, dijo Microsoft. Skype, hay que decir, permite enviar mensajes instantáneos, compartir archivos y contactos, enviar emoticones, acceder al historial de conversaciones desde prácticamente cualquier sitio e incluso enviar mensajes a tus contactos aunque estén desconectados. Asimismo, el sistema permite enviar mensajes instantáneos, llamar por teléfono y realizar videollamadas desde PC, Mac, Windows Phone, iPhone, iPad, móviles Android, Kindle Fire y otros dispositivos. La aplicación de Skype está disponible para iPhone, Android y Windows Phone 8. Además, Skype permite enviar mensajes instantáneos y realizar videollamadas con amigos de Facebook y grupales con hasta 10 contactos a la vez. “Nuestro objetivo sigue siendo ofrecer la mejor experiencia de comunicación en cualquier lugar. Daremos de baja el servicio de Messenger en todos los países durante el primer trimestre de 2013 (excepto en China donde Messenger continuará estando disponible)”, dijo Alejandro Arnaiz, director de Desarrollo de Mercado de Skype Latinoamérica. Así las cosas, Microsoft da de baja uno de sus servicios emblema luego de la liberación de Skype 6.0 para Mac y Windows hace algunas semanas, que permite a los usuarios registrarse en Skype usando su cuenta Microsoft. Ahora, como se dijo, los usuarios de Messenger sólo necesitan actualizar a la más reciente versión de Skype y después registrarse con su cuenta Microsoft : sus contactos de Messenger estarán ahí. Si ya están usando Skype y Messenger, según se informó, los usuarios pueden fusionar ambas cuentas. Una vez completado el proceso de instalación, llegará la bienvenida a Skype con la lista de amigos sincronizada y ya preparada para enviar mensajes instantáneos de inmediato. El Messenger, tal vez se recuerde, comenzó a funcionar en 1999 y se convirtió rápidamente en el servicio de mensajería online más usado, reemplazando en aquella época al ICQ. En Argentina lo llegaron a usar unas 13 millones de personas. La llegada de las redes sociales, sin embargo, hizo que su escenario virtual fuera quedando poco a poco despoblado. Fuente www.eldia.com.ar

domingo, 24 de febrero de 2013

Smartphones con Internet y el riesgo de virus

Troyanos, "worms", boots... muchos son los virus que afectan con frecuencia a nuestros ordenadores personales, pero... ¿qué pasa con los Smartphones de última generación?, ¿son también susceptibles a ataques de piratas informáticos? Dicen los expertos que cualquier aparato que sea conectado a Internet puede ser blanco de todo tipo de virus, y por supuesto, los móviles con conexión Wi-Fi o 3G no son la excepción. Así, existe un problema añadido en el caso de los Smartphones, dado que toda la gama de teléfonos inteligentes actuales cuenta con la posibilidad de acceder a Internet, y de hecho es una función muy utilizada por gran parte de los usuarios. "Dicen los expertos que cualquier aparato susceptible de ser conectado a Internet puede ser blanco de todo tipo de virus." Cómo ingresan los virus a los Smartphone En el caso de los aparatos de telefonía móvil, los hackers y piratas informáticos tratan de introducir virus con el mismo cometido de siempre: robos de datos privados, control del terminal, fraudes, etc. Mientras que en un PC es frecuente descargarse un virus abriendo un email sin darse cuenta, los piratas de móviles atacan por medio de SMS ocultos, normalmente pidiendo la descarga de un archivo, o bien a través de juegos y otras aplicaciones descargables de sitios no oficiales. Cómo evitar la entrada de virus en el móvil Como ya se ha comentado, hoy en día la mejor prevención es seguir las directrices que se siguen al navegar por Internet desde cualquier otro dispositivo, esto es, no abrir correos electrónicos de desconocidos, no descargar archivos de fuentes poco confiables y dudar de los SMS o llamadas de números no identificados, especialmente cuando se repiten periódicamente. A nivel de sistemas operativos, Android es el que se lleva el mayor riesgo en cuanto a infecciones, sufriendo tres de cada cuatro ataques a Smartphones, por lo que los usuarios de ese sistema deben extremar las precauciones. Antivirus para tu Smartphone Los mismos antivirus que se utilizan en la computadora de casa suelen contar con su versión móvil, por ejemplo,Kaspersky Mobile Security, que se adapta tanto a Windows Mobile como Blackberry y Android, o Avast Free Mobile Security, también disponible para Android y en versión gratuita. No obstante, son muchos los expertos que no ven clara la utilidad de la mayoría de estos antivirus para Smartphones, principalmente por estar aún poco desarrollados, hecho que normalmente lleva a la gente a preguntarse si realmente necesitan un antivirus para sus móviles de última generación. La respuesta es que sí, y de hecho conviene adquirirlo, aunque es verdad que distan mucho de la eficacia de sus homólogos para PC.
 Seguramente con el tiempo se irán mejorando.
 Fuente

martes, 25 de septiembre de 2012

Teclados


¿Alguna vez se han preguntado por que las teclas de su teclado se encuentran organizadas de esa manera?  
Muchos pensarían que se hizo un gran estudio para saber cual era la manera más eficiente de organizar las teclas en un teclado o tal vez la manera más cómoda. 
Pues resulta que el teclado QWERTY,  el que todos tienen en sus computadoras, fue creado por el inventor de las máquinas de escribir Cristopher Sholes en 1867 con la asistencia de Carlos Glidden y Samuel W. Soule. 
Hicieron varias pruebas de campo y con el método de prueba y error fueron decidiendo la posición de las letras en el teclado tomando como único parámetro de referencia el que no se atascaran las letras en las maquinas de escribir
Al final parece que dada la experiencia adquirida en su experimento habían creado un teclado que te permitía escribir tan fluido evitando los atasques de la maquina de escribir.
Se le denomina QWERTY por las primeras 6 teclas consonantes ubicadas en la fila superior del teclado.


Teclado QWERTY

Teclado Dvorak

No fue hasta que en 1936 que el profesor August Dvorak de la Universidad de Washington decidió llevar un experimento siguiendo el método científico para determinar la manera en que se organizarían las teclas en un teclado. El resultado del experimento fue el teclado que ven en la imagen. Se ha “demostrado” en distintos experimentos que el teclado Dvorak permite introducir textos hasta un 20% mas rápido que el teclado QWERTY. Incluso varias compañías y agencias de gobierno en los Estados Unidos que hacen uso intensivo del teclado han decidido migrar a esta organización de teclado gracias a las mejoras en cuanto a rapidez y ergonomía que provee el propuesto por el Dr. Dvorak.

Vos también lo puedes hacer fácilmente ya que todos los grandes sistemas operativos poseen soporte para teclados Dvorak.

Comparación de los teclados QWERTY y Dvorak
Pulsaciones
La mecanografía a ciegas requiere que los dedos descansen en la fila media (la fila que comienza con las letras “ASDF” en un teclado QWERTY). Cuantas más pulsaciones se hagan en la fila media, menos movimientos deben hacer los dedos y por tanto se puede teclear más rápido, más preciso y con menos esfuerzo y fatiga para los dedos y manos. Estudios realizados con cámaras de alta velocidad prueban que las pulsaciones son más rápidas en la fila media y que las más lentas son las de la fila inferior. Si los dedos han de moverse es mejor moverlos a la fila de arriba (fila de “QWERTY”) que a la de abajo (fila de “ZXCV”)


Es notable que la mayoría de las pulsaciones del teclado Dvorak (77%) se hace en la fila media, que es la fila más fácil porque es donde reposan los dedos. 
Además el teclado Dvorak requiere las menos pulsaciones en la fila inferior, que es la más difícil. 
Sin embargo, el teclado QWERTY obliga a mover los dedos a la fila superior para la mayoría de pulsaciones y deja sólo el 32% para la fila media. Como el teclado Dvorak concentra la mayoría de las pulsaciones en la fila media, usa un 63% menos de movimiento de dedos que el QWERTY, por lo que es más ergonómico.








 

martes, 29 de marzo de 2011

Código QR

Un código QR (Quick Response Barcode) es un sistema para almacenar información en una matriz de puntos o un código de barras bidimensional creado por la compañía japonesa Denso-Wave en 1994; se caracterizan por los tres cuadrados que se encuentran en las esquinas y que permiten detectar la posición del código al lector. La sigla "QR" se derivó de la frase inglesa "Quick Response" pues el creador aspiraba a que el código permitiera que su contenido se leyera a alta velocidad. Los códigos QR son muy comunes en Japón y de hecho son el código bidimensional más popular en ese país.
Características generales
Aunque inicialmente se usó para registrar repuestos en el área de la fabricación de vehículos, hoy, los códigos QR se usan para administración de inventarios en una gran variedad de industrias. Recientemente, la inclusión de software que lee códigos QR en teléfonos móviles japoneses, ha permitido nuevos usos orientados al consumidor, que se manifiestan en comodidades como el dejar de tener que introducir datos de forma manual en los teléfonos. Las direcciones y las URLs se están volviendo cada vez más comunes en revistas y anuncios japoneses. El agregado de códigos QR en tarjetas de presentación también se está haciendo común, simplificando en gran medida la tarea de introducir detalles individuales de un nuevo cliente en la agenda de un teléfono móvil.
Los consumidores que cuenten con dispositivos y programas de captura, en combinación con un PC con interfaz RS-232C pueden usar un escáner para leer los datos.
El estándar japonés para códigos QR (JIS X 0510) fue publicado en enero de 1999 y su correspondiente estándar internacional ISO (ISO/IEC18004) fue aprobado en junio de 2000.
Un detalle muy importante sobre el código QR es que su código es abierto y que sus derechos de patente (propiedad de Denso Wave) no son ejercidos.


Desde estas Webs generas tu códigos QR
Kaywa
i-nigma
Zxing

Si escaneas la imagen siguiente obtendrías la URL de este Blog


Obtener el lector para tu móvil
Si queres hacer la prueba de escanear con tu PC códigos QR, desde aquí descarga el programa QuickMark


lunes, 24 de enero de 2011

El cumpleaños de dos viejos amigos

El cumpleaños de dos viejos amigos
Hace 15 años se presentaban el Motorola StarTAC y la Pilot 1000, la primera Palm
Sábado 22 de enero de 2011 | Publicado en edición impresa Diario La Nación


En estos días dos dispositivos móviles cumplieron 15 años, y me parece que bien vale un poco de nostalgia, porque son íconos de la industria y definieron, para bien y para mal, la historia de sus creadores.

El 3 de enero de 1996 salió a la venta, en Estados Unidos, el Motorola StarTAC. Era una maravilla de la ingeniería, y con su hijo dilecto, el RAZR (2004), demostraban la capacidad de Motorola para la miniaturización de componentes.

El StarTAC era diminuto, muy, pero muy canchero, y carísimo (unos 1000 dólares de la época) y fue el primer móvil con tapa completa (o almeja , en inglés); es decir que cada mitad del equipo funciona como tapa y no, como en modelos anteriores, que sólo queda tapado el teclado.

La primera versión no tenía pantalla digital, sino unos LED que se iluminaban para mostrar los números marcados, y no era capaz de enviar mensajes de texto. Ni hablar de acceder a Internet, claro, escuchar música o sacar fotos (el primer celular en lograrlo llegó en 1997).

Además de tener su lugarcito en el corazón nacional, el StarTAC fue uno de los motores para que Motorola llegara a la cima del mundo móvil y lanzara el RAZR v3, con sus famosos 13,9 mm de espesor, algo notable para la época; recuerdo el estupor infantil que me provocó el día de su presentación local en agosto de 2004.

Motorola apostó toda su línea de diseño y producción al RAZR y tuvo un gran éxito inicial: con más de 200 millones de unidades vendidas, está entre los celulares más populares de la historia.

Con las variaciones siguientes, sin embargo, más focalizadas en lo estético que en sumar funciones, este éxito inicial se transformó en un lastre que hundió a la compañía hasta fines de 2009, cuando volvió a la senda del éxito con sus equipos con Android.

Unas semanas después de que se presentara el StarTAC, el 29 de enero de 1996, una compañía conocida por sus módems, y con uno de los mejores nombres que se hayan visto en mucho tiempo, U. S. Robotics, anunció un nuevo dispositivo, también en Estados Unidos.

No era, entonces, una división clave en la compañía, pero pronto se transformó en algo así (y mucho más después).

La gacetilla con la que presentó el nuevo dispositivo, la Pilot 1000, la describía como un organizador electrónico (un asistente personal digital), aunque en realidad era la primera computadora de bolsillo realmente popular de la historia.

La Pilot 1000 salió a la venta en marzo de ese año en Estados Unidos a 299 dólares e incluía una pantalla táctil de 3,3"; prescindía de un teclado físico y se manejaba con botones virtuales y un lápiz plástico.

El resto del hardware es notable también por dos motivos: uno, marca lo mucho que cambiaron las cosas; dos, demuestra que con comparativamente poco se pueden hacer cosas geniales.

Esta palmtop ofrecía un chip Motorola Dragonball a 16 MHz y 128 kilobytes de memoria. Admitía hasta 750 contactos y un año de citas. La pantalla monocromática tenía una resolución de 160 x 160 pixeles.

Existía una extensión para la memoria, que la aumentaba considerablemente, pero nada más. No había posibilidad de reproducir contenido multimedia, algo que en las PC estaba confinado al CD, que vivió por esos años su época de gloria. Y ni hablar de conectividad inalámbrica; eso llegó (para las Palm) en 1999.

La Pilot 1000 y sus sucesores tenían, sin embargo, dos funciones clave: ofrecían la posibilidad de sincronizar su contenido con una computadora (tanto para tener un respaldo de los datos como para editarlos en la comodidad de un equipo más grande) y permitían sumar software, creado por un ecosistema de desarrolladores que en su mejor momento sumaba decenas de miles en todo el mundo, y estamos hablando de algo que ocurrió mucho, mucho antes del iPhone y la tienda de aplicaciones centralizada.

De hecho, con la Pilot y el resto de los equipos que Palm sacaría al mercado surgieron varios sitios que funcionaban como almacenes de software.

Palm también mantuvo la corona del mundo smartphone por un tiempo con los Treo 600 y 650, pero perdió el rumbo (o mejor: lo mantuvo cuando el resto del mundo había cambiado de dirección) y estuvo a punto de desaparecer, incapaz de lograr que sus equipos compitieran con los smartphones que llegaron hacia el fin de la última década .

Tuvo una vuelta fugaz con el móvil Pre y su sistema operativo WebOS, que recibió excelentes críticas, pero no vendió mucho, y ahora, después que HP (uno de sus competidores históricos con la línea iPaq) la compró por 1200 millones de dólares el año pasado, se prepara para presentar al menos dos tabletas en un evento para la prensa el 9 de febrero próximo. Paradojas del destino: el vicepresidente ejecutivo del Grupo de Sistemas Personales de HP que ahora supervisa el desarrollo de dispositivos WebOS es Todd Bradley, que fue CEO de Palm entre 2003 y 2005; lo entrevisté cuando la compañía presentó sus primeros modelos con reproductor de audio y video incorporado. La presentación de HP se hará, además, aproximadamente un mes antes de que salga a la venta, en Estados Unidos, la tableta Xoom de Motorola presentada en la última edición de la feria CES y, según algunos rumores, más o menos al mismo tiempo que Apple mostrará públicamente la segunda versión de su tableta iPad. Dicho sea de paso, otro 15° aniversario: en 1996, pero en diciembre, Apple compró NeXT y Steve Jobs volvió a la compañía que había fundado 20 años antes.

Por Ricardo Sametband

lunes, 10 de enero de 2011

Creará Google kiosco virtual

Esta nueva iniciativa pondría a competir a Google con Apple, que ya estaba haciendo algo parecido por medio de iTunes, donde ya vendían algunos periódicos y revistas.
Según un artículo del Wall Street Journal, Google tiene una nueva idea: Crear un kiosco virtual, y para ello sostiene conversaciones con diferentes editoriales para vender periódicos en su formato digital.
Esta nueva iniciativa pondría a competir a Google con Apple, que ya estaba haciendo algo parecido por medio de iTunes, donde ya vendían algunos periódicos y revistas.
El kiosco daría la posibilidad a empresas de medios para que vendan publicaciones diseñadas para Tablet PC y teléfonos que operen con el sistema Android, según publicó el diario citando fuentes anónimas.
Google también ofreció entregar los datos de algunos usuarios que compren las versiones digitales de sus periódicos.
El mes pasado, el buscador más popular del mundo comenzó a vender libros digitales a través de su tienda online, entrando al mercado que Amazon.com tenía dominado y aumentando la competencia con Apple que vende libros para su iPad.

Fuente: http://uniradioinforma.com/noticias/articulo36743.html

domingo, 10 de octubre de 2010

Discos duros externos SSD

El tamaño reducido, su ahorro energético y la velocidad de lectura de datos son sus principales características

Las memorias en estado sólido, o SSD, se diferencian de los discos magnéticos en que carecen de componentes móviles, lo que comporta una serie de ventajas, aunque también algunas limitaciones. Se hicieron populares a raíz de la aparición del modelo de ordenador ultraligero MacBook Air de Apple, ya que enseguida se especuló sobre sus posibilidades de incorporación a dispositivos como reproductores multimedia, teléfonos móviles e incluso ordenadores portátiles. Ahora se consolidan en el mercado las unidades de almacenamiento externo, discos duros externos, basados en esta tecnología. Sus principales ventajas son su tamaño, el ahorro energético y la velocidad en la transferencia de datos. Sus limitaciones vienen por la capacidad y el precio.

Autor: Por JORDI SABATÉ MARTÍ
Fecha de publicación: 4 de octubre de 2010


Las memorias en estado sólido -llamadas así para distinguirlas de las magnéticas, montadas sobre componentes móviles- están basadas en las memorias flash no volátiles, pero con capacidades muy superiores. Así, mientras un "pincho" USB puede llegar entre los cuatro y los ocho gigabytes, los discos duros SSD que se venden en la actualidad alcanzan los 250 gigabytes.

Una memoria escasa si se comprara esta capacidad con la de los discos magnéticos, que pueden llegar hoy en día a un terabyte -1.000 gigabytes- y que se sitúan de media en los 500 gigabytes. Pero no es en razón de su almacenamiento por lo que se les considera interesantes, sino por su reducido tamaño. El usuario busca cada vez más discos portables, que le quepan en el bolsillo sin apenas notarlos, y con un peso reducido.

El usuario busca cada vez más discos portables, que le quepan en el bolsillo sin apenas notarlos
Los discos duros magnéticos tienen un límite de tamaño en relación a la capacidad de almacenamiento, de modo que aunque existen modelos del tamaño de una cajetilla de cigarrillos, su capacidad no supera los 80 gigabytes y su precio es muy elevado. Además, al estar compuestos por partes móviles, el rozamiento de los componentes al moverse genera excesivo calor. Como el espacio interior es muy reducido no se produce una ventilación eficaz y se da un excesivo consumo extra de energía. Por otro lado, los discos magnéticos son más susceptibles a golpes y posibles movimientos bruscos, por lo que se desaconseja usarlos como periféricos portátiles.

Pequeños, silenciosos... y caros
Todas estas desventajas se solucionan en los discos duros externos SSD, que se adaptan muy bien a los tamaños reducidos y no tienen un sobrecalentamiento excesivo. Al ser aparatos compactos, formados por un solo componente que no se mueve al trabajar, tienen menor riesgo de desajustes y pueden alcanzar tamaños mínimos con mayor capacidad de almacenamiento.

Los modelos actuales se mueven en el entorno de las dos pulgadas y media, lo que equivale a cinco centímetros de diagonal, un tamaño menor que el de un iPhone. Su peso puede variar de un modelo a otro y según la capacidad de almacenamiento, pero se sitúa en torno a los cien gramos, y en ocasiones menos. Estas características les hacen ideales para la portabilidad, ya que caben en cualquier bolsillo.

Sin embargo, su principal limitación es que por el momento no existen modelos que superen los 260 gigabytes de capacidad de memoria, por lo que se antojan limitados para determinados usos. Así, no resultan adecuados para realizar copias de seguridad de ordenadores, o redes de ordenadores, con discos duros grandes, y tampoco como almacén de excesivos contenidos multimedia, sobre todo de vídeo.

Los modelos que hay en el mercado por lo general se presentan en tres versiones de más a menos capacidad: la primera oscila entre los cincuenta y los ochenta gigabytes; la siguiente alcanza los 130 gigabytes, y la más potente llega a los 256 gigabytes. El problema es que sus precios son comparativamente mucho más elevados que en los discos magnéticos. Un modelo de la versión más baja cuesta casi 200 euros, mientras que la más elevada puede alcanzar los 700 euros. Un disco duro magnético externo de 300 gigabytes no alcanza hoy los 150 euros, aunque sí es cierto que su tamaño y su peso son muy superiores.

Alta velocidad de transferencia
Otra característica por la que destacan los discos SSD es su alta velocidad de lectura de datos, que permite enviarlos a un ordenador mucho más rápido que los discos magnéticos. Las velocidades actuales se mueven en torno a los 250 megabits por segundo, mientras que en los discos magnéticos son hasta diez veces inferiores, si bien depende del tipo de archivo a leer.

No se alcanzan las mismas velocidades en la escritura de datos en el disco, por problemas intrínsecos de las memorias flash, pero las mejoras en este aspecto han sido notables en los últimos años y los modelos más recientes alcanzan los 200 megabits de datos copiados por segundo, al menos a nivel teórico. También este parámetro es sensiblemente inferior en los discos magnéticos. Además hay que tener en cuenta que los discos SSD no sólo son rápidos, sino que mantienen la velocidad de transferencia de datos de una manera sostenida, mientras que en los discos magnéticos esta oscila con altos y bajos.

Para mejorar la transferencia de datos, algunos de estos dispositivos incorporan el nuevo puerto USB 3.0, mucho más potente que su antecesor USB 2.0 en la circulación de información. El problema es que este estándar todavía no se ha consolidado en el mercado y hay pocos ordenadores compatibles con él, por lo que el usuario deberá comprarse, además del disco SSD, un adaptador al estándar anterior, que es el que rige en la mayoría de aparatos.

Algunos modelos actuales

La marca OCZ oferta diversos modelos de discos externos SSD de dos pulgadas dentro de su serie Enyo. El OCZ Enyo destaca por incorporar puerto USB 3 y tiene tres versiones de 64, 128 y 256 gigabytes, con precios de 179, 285 y 685 dólares respectivamente. La velocidad de lectura es de 250 Mbps y la de escritura de 200 Mbps.

El fabricante PQI tiene en el mercado el modelo S533-E, con características similares al de Enyo, pero con una velocidad de escritura inferior.

Samsung presenta el modelo Samsung 470, de 2,5 pulgadas de diagonal, con capacidades de 64, 128 y 256 gigabytes, y velocidades de lectura de 250 Mbps y 220 Mbps para la escritura. Aunque no tiene puerto USB 3, presenta un chip interno de procesado de datos conocido como SandForce SF-1200 gracias al cual mantiene altas velocidades de transferencia. Los precios se sitúan en 200, 400 y 700 dólares, siempre según la capacidad de cada versión.

Aviator-2 es el modelo que Active Media Products prometió lanzar a principios de 2010, aunque todavía no se sabe de su incorporación en el mercado español. Su principal característica sobre el resto es que alcanza velocidades de lectura de datos de hasta cuatro gigabits por segundo siempre que la transferencia se dé entre dos puertos USB 3.

Información EROSKI CONSUMER

miércoles, 15 de septiembre de 2010

IT a la hora de virtualizar aplicaciones

Los departamentos de IT dudan a la hora de virtualizar aplicaciones de misión crítica


Si esta investigación realizada por la firma Virtual Instruments tiene un sesgo muestral, no es precisamente en contra de la posición de la virtualización, ya que se realizó entre los concurrentes a un evento cuyo anfitrión fue VMware. El evento fue VMworld 2010 y la encuestadora entrevistó a una muestra de 200 asistentes con posiciones de relevancia en departamentos de IT empresariales.
En momentos en que muchas empresas adoptan virtualización, aún quedan algunas piezas sueltas cuando se trata de aplicaciones de misión crítica. 48 % de los entrevistados mencionaron preocupación por performance como principal razón de no virtualizar aplicaciones de negocio de misión crítica. Otro 32% mencionó preocupación por la seguridad.
En otra investigación también publicada esta semana por la firma AppDynamics, aparece que sólo un 14% de los entrevistados ha virtualizado sus aplicaciones “Tier 1” o de misión crítica. Para el resto de las aplicaciones, la tasa de uso de la virtualización alcanza a un 83%.
En un 54% de los casos, fueron los responsables de las aplicaciones quienes bloquearon los proyectos de virtualización Tier 1.
La investigación de AppDynamics se realizó un mes antes de VMworld y muestra que en un 50% de los casos resultará más posible virtualizar aplicaciones utilizadas internamente, que aquellas que interactúan directamente con clientes. Los principales obstáculos en misión crítica: temas con al gente, rendimiento y diseños.
“Los responsables de las aplicaciones carecen de evidencia sólida demostrando que las mismas funcionarán aceptablemente en un entorno virtual. Están bajo intensa presión y deberían garantizar que las aplicaciones tengan un 100% de uptime, además de alcanzar estrictos SLAs (Service Level Agreements). Esperan que los teams encargados de virtualizar les demuestren que esa transición no afectará a la calidad del servicio,” comenta el CEO de AppDynamics.
La investigación de Virtual Instruments, sin embargo, muestra una mayor aceptación respecto al año anterior. Un 58% de los entrevistados virtualizó al menos la mitad de sus servidores, comparado con un 39% medido en VMworld 2009. Este año, un 73% dijo haber virtualizado un 30% o más de sus servidores físicos.
Respecto a aplicaciones de misión crítica, un 35% de los entrevistados dijo haber pasado 50% o más de las mismas a servidores virtuales. El año pasado, ese conjunto fue del 31%.
Como posiblemente veamos en un futuro informe de Datamation, cloud computing fue un tema central de esta conferencia de VMware. Pero el tema no pareció ser tan importante para todos: un 34% implementó arquitecturas cloud privadas y un 23% planea hacerlo en los próximos 12 meses. Pero un 43% no espera implementar nubes privadas en lo absoluto.
Otra firma investigadora, Sendmail, hizo una encuesta centrada en e-mail en el mismo evento. La encuesta mostró que un 56% ha migrado componentes o toda su infraestructura de e-mail a entornos virtuales. Un 59% mencionó a una mayor utilización de servidores, alta disponibilidad y soporte para superación de fallos como a las principales causas de la migración de infraestructuras de email a entornos virtuales. Como preocupaciones en un 45% de los entrevistados, siempre hablando de infraestructura de e-mail, aparecieron la performance y el throughput limitando la migración a infraestructuras de e-mail virtuales. La seguridad preocupó a un 14% de los mismos.


Datamation line

lunes, 28 de junio de 2010

La realidad aumentada

La realidad aumentada está entre nosotros. Con la cámara de un teléfono inteligente podemos aprender del mundo que está a nuestro alrededor. Lo único que hay que hacer es apuntar el celular a un objetivo y escoger alguna de las cientos de capas de contenido que existen en dichos dispositivos.
¿Quieren saber donde hay un cajero automático? ¿Cómo se llama el edificio que está frente a ustedes? ¿Dónde está el hospital más cercano? ¿O un hotel? Entonces las aplicaciones que usan la realidad aumentada tienen la respuesta.
La tecnología funciona así: el servicio de realidad aumentada ubica la posición del teléfono mediante el GPS o la ubicación de la antena celular más cercana. Después le brinda al usuario una serie de "canales de información" para que éste decida qué información quiere recibir sobre lo que está en su entorno.
Se cree que para el 2013 habrá 1400 millones de teléfonos inteligentes en el mundo. Todos serán capaces de manejar la realidad aumentada.
En el mercado ya hay decenas de aplicaciones que explotan este servicio, principalmente para teléfonos Android, iPhone, BlackBerry y algunos Nokia. Google, por ejemplo, tiene su propia aplicación de realidad aumentada llamada Goggles , que permite apuntar la cámara del celular a monumentos históricos y obtener información sobre ellos.
Una de las aplicaciones más populares se llama Layar .
"Es una de las mejores maneras para ayudarte a ver y entender lo que no conoces. Cuando lo abres, puedes ver un motor de búsqueda en vivo y saber qué contenido está cerca de ti", dijo Maarten Lens-Fitzgerald, cofundador de Layar.
"El mundo es cada vez más complejo y tiene más información. Los objetos se están convirtiendo en portadores de contenido. Así que cualquier herramienta que te ayude a entender mejor el mundo, es útil. Es como la World Wide Web: en sus inicios era algo raro y ahora se ha vuelto la forma más común de conseguir información", agrega Lens-Fitzgerald.
¿Pero será que el tener tanta información inhibirá el gusto por descubrir las cosas de primera mano?
"Si no lo quieres usar, no lo hagas. Si estás en Los Andes, rodeado por naturaleza... por favor ¡no lo uses!, disfruta el panorama. Pero si estás en una urbe, en donde trabajas, y quieres saber a qué hora pasa el autobús o si alguien está jugando un videojuego cerca de tí, entonces úsalo", sugiere el cofundador de Layar.
¿Identidad aumentada?
Con la llegada de la realidad aumentada al mercado tecnológico, comienzan a surgir nuevas posibilidades para esta aplicación. Una de ellas la está explorando la empresa TAT , que se dedica a desarrollar software para móviles que después otras empresas comercializan.
Su último experimento se llama Recognizr. Es una aplicación que, mediante la cámara de un teléfono inteligente, reconoce el rostro de las personas y busca en una base de datos las redes sociales a las que pertenecen. Esta plataforma podría estar disponible a finales de año.
No se trata de un servicio público. Para que la aplicación muestre información social, las personas tienen primero que aceptar que Recognizr pueda encontrarlos.
Además, los usuarios podrán escoger qué información compartir con quien. Algunos datos de contacto en sus redes sociales pueden ser compartidos con amigos, otros con familiares, algunos más con colegas y otros más con cualquier persona.
"Hacer que la tecnología sea útil significa que las personas tengan el control de su información", asegura Charlotta Falvin, presidenta ejecutiva de TAT.
"Digamos que no nos conocemos y si nos cruzamos en la calle yo no podría encontrarte dado que no estamos conectados. Podemos ser amigos después y conectarnos y después, si ya no somos amigos, podemos apagar la conexión", añade Falvin.
La empresa dice estar consciente de los temores sobre la privacidad que pueden darse por Recognizr, pero insiste en que el usuario siempre tendrá el control de su información. En el fondo, tanto TAT como Layar aseguran que sus productos sólo buscan que la tecnología sea útil.
"No necesitamos saber todo lo que pasa a nuestro alrededor, sólo algunas cosas. Layar aprende de las cosas que están a su alrededor, las filtra y permite navegar la realidad de una forma más sencilla", concluye Maarten Lens-Fitzgerald.
"Estamos demostrando como se puede dar una interacción positiva con el usuario. El reconocimiento facial es una de esas posibilidades. ¿Cómo hacerlo útil? Uno de los desafíos es que sea útil. ¿Cómo haces que la gente aproveche las posibilidades de su teléfono? Ese es el reto", finaliza la presidenta de TAT.
Fuente 
David Cuen 
BBC Mundo 

sábado, 12 de diciembre de 2009

Teclado flexible y lavable.


Stey, la marca de S.C.I especializada en la fabricación de productos de ergonomía y tecnológicos, presenta un teclado flexible lavable, fácil de usar. El nuevo teclado multimedia es un complemento de trabajo para personas que tienen que viajar durante muchas horas ya que permite plegarlo y guardarlo en cualquier sitio. Además gracias a una fija sujeción permite al usuario trabajar en cualquier superficie.
El teclado flexible ofrece unas condiciones de higiene excelentes gracias a la posibilidad de lavarlo. El teclado no sufrirá ningún desperfecto ya que está totalmente sellado, lo que además favorece que no entre ni polvo ni fluidos y garantiza de esta forma un uso sin problemas.

El nuevo teclado de Stey, según la empresa, permite trabajar con un toque suave y silencioso, además garantiza una alta fiabilidad gracias su diseñado con tecnología de membrana de contacto. El teclado flexible está disponible en rojo, azul y transparente y se puede adquirir por 19.90 euros.

domingo, 6 de diciembre de 2009

Rolltop: Laptop de pantalla flexible OLED enrollable

viernes, 20 de noviembre de 2009

Los 10 momentos de la década de internet.

El lanzamiento de Wikipedia, la aparición del iPhone y la elección de Barack Obama como presidente de los EEUU estuvieron entre los 10 momentos más influyentes de internet en la década pasada, según los premios anuales Webby
Otros acontecimientos destacados por la Academia Internacional de las Artes y las Ciencias Digitales, con sede en Nueva York -que presenta los premios anuales Webby desde 1996-, fueron las elecciones iraníes de este año, cuando las protestas demostraron el poder de Twitter y otras redes sociales en la reformulación de la democracia.

"Internet es la historia de la década porque fue el catalizador para el cambio no sólo en todos los aspectos de nuestra vida diaria, sino en todo, desde el comercio y la comunicación a la política y la cultura pop", dijo David-Michel Davies, director ejecutivo de The Webby Awards.

"El tema recurrente entre todos los hitos de nuestra lista es la capacidad de internet para franquear los sistemas antiguos y poner más poder en manos de gente corriente", agrega el comunicado de Davies.

A continuación, la lista de Webby de los 10 momentos de internet más influyentes de esta década:
- Craigslist, el sitio web de anuncios clasificados gratuitos, se expande más allá de San Francisco en el 2000, afectando a periódicos de todas partes.
- El lanzamiento de Google AdWords en el 2000 permite a los anunciantes dirigirse a sus clientes con una precisión milimétrica.
- Wikipedia, la enciclopedia gratuita de fuente abierta, se lanza en el 2001 y hoy presume de más de 14 millones de artículos en 271 idiomas diferentes y de unir a desconocidos en proyectos comunes.
- El cierre de Napster en el 2001 abre las compuertas al intercambio de archivos.
- La salida a bolsa de Google en el 2004 pone al buscador en camino de impulsar incontables aspectos de nuestra vida diaria.
- La revolución del video online en el 2006 lleva a un boom del contenido casero y profesional en internet y ayuda a remodelar todo, desde la cultura pop a la política.
- Facebook se abre a estudiantes no universitarios y Twitter despega en el 2006.
- El iPhone debuta en el 2007 y los "smartphones" pasan de ser un artículo de lujo a una necesidad, con una aplicación para casi todos los aspectos de la vida moderna.
- La campaña presidencial de Estados Unidos en el 2008, en la que internet cambió todas las facetas de gestión de una campaña.
- Las protestas electorales iraníes en el 2009, cuando Twitter demostró ser vital para organizar manifestaciones y como protesta en sí.

Fuente: Reuters

lunes, 16 de noviembre de 2009

Milestone de Motorola.

jueves, 5 de noviembre de 2009

Sistema GPS de navegación por voz

jueves, 22 de octubre de 2009

Blu-ray

Blu-ray (también conocido como Blu-ray Disc o BD) es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de alta definición y almacenamiento de datos de alta densidad.
Generalidades
El uso del láser azul para escritura y lectura permite almacenar más cantidad de información por área que los discos DVD, debido a que el láser azul tiene una menor longitud de onda que los láseres usados para almacenar en discos DVD.1
Su capacidad de almacenamiento llega a 50 gigabytes a doble capa, y a 25 GB a una capa. El Blu-ray de 400 GB a 16 capas ya fue patentado y se espera que salga al mercado en el 2010, así como se tiene pensado patentar un Blu-Ray de 1 terabyte para 2011 o 2012. La consola de videojuegos PlayStation 3 puede leer discos de hasta doble capa y se ha confirmado que está lista para recibir el disco de 16 capas.
Este formato se impuso a su competidor, el HD DVD, en la guerra de formatos iniciada para cambiar el estándar DVD, como en su día ocurrió entre el VHS y el Betamax, o el fonógrafo y el gramófono. Aunque otros apuntan que el sucesor del DVD no será un disco óptico sino la tarjeta de memoria. Siendo el competidor más duro que tiene el Blu-ray. El límite de capacidad en las tarjetas de formato SD/MMC está ya en 128 GB en modo LBA (28-bit sector address), teniendo la ventaja de ser regrabables al menos durante 5 años.
En febrero de 2008, después de la caída de muchos apoyos al HD-DVD, Toshiba decidió abandonar la fabricación de reproductores y las investigaciones para mejorar su formato.
Fuente: Wikipedia

miércoles, 14 de octubre de 2009

Decae el uso del P2P.

En 2007, el sistema de intercambio de archivos P2P representaba el 40% del tráfico. Ahora ha caído al 18%. Ésta es la cifra más llamativa de un estudio de Arbor Networks que anticipa Wired. En paralelo, el tráfico que circula a través del navegador ha progresado un 10%, representando la mitad del total el tráfico. El declive del P2P se produce en beneficio de los sitios de streaming, que permiten ver o escuchar un archivo en línea sin descargarlo. El estudio cita fenómenos como Youtube o, en Estados Unidos, Hulu. Pero también influyen en la pérdida de peso del P2P servicios de telecarga directa como RapidShare.
Wired cita otros sitios como MegaUpload, que ofrece "almacenamiento en línea gratuito y autofinanciado, además de sofisticadas herramientas de carga y descarga”. La citada compañía ha elaborado el estudio analizando el tráfico de más de cien proveedores de Internet en el mundo y 3.000 routers. La cifra de caída del P2P se ha obtenido estudiando el tráfico de paquetes. La cifra habría sido más abultada si hubiera contabilizado el empleo del protocolo específico P2P pero los autores del estudio consideran este dato poco fiable ya que se tiende a enmascarar su empleo.
El menor empleo del P2P no tiene relación con el acceso a contenidos protegidos por derechos intelectuales, y es un motivo de reflexión para aquellos legisladores, como los franceses, que han centrado su particular lucha contra la piratería en atacar el P2P. Como señala el sitio francés Numerama, el streaming no tiene por qué ser más legal que el P2P. "La ley francesa " ha sido pensada para el P2P "con un proceso de identificación que se revela ineficaz para el streaming o los sitios de teledescarga directa. La misma revista señala que la aparición de servicios de streaming vía P2P podría invertir la tendencia nuevamente y cancelar este anunciado funeral del P2P