30 de mayo de 2011

¿Por qué Facebook es gratis?

Existe una tendencia en Internet a ofrecer productos o servicios de manera gratuita para el usuario. Uno se pregunta cómo es posible, y muchas veces no se da cuenta de que cuando un servicio es gratuito es probable que el producto sea el propio usuario.


Bruce Schneier, gurú de Internet, explicaba la semana pasada en una conferencia en Madrid por qué Facebook no cobra por el uso de su plataforma. Los usuarios de Facebook no somos sus clientes; somos su producto, que vende a sus clientes. Facebook gana dinero a partir de lo que la gente cuenta en su red. Y cuantos más usuarios tenga y cuantas más cosas expongan de su vida mejor, porque eso significa más ingresos para ellos.

En efecto, en Internet esta tendencia del todo gratis para el usuario ha evolucionado muy rápidamente abarcando áreas de servicios que antes eran de pago. En el caso de las redes sociales, aunque con excepciones, la gratuidad es el denominador común. Los administradores de redes sociales no han tardado en percatarse de que si un usuario puede conseguir el mismo producto gratis o pagando, por lo general elegirá aquél de costo cero y, por tal motivo, han optado por ese modelo.


Pero obviamente, las redes sociales no son ONG´s y necesitan monetizar el tráfico que generan. ¿Cómo lo hacen? En el caso de Facebook, “la mayor parte de la contribución a las finanzas de la empresa proviene de la publicidad. Facebook maneja tres diferentes tipos de anuncios en su sitio: publicidad dirigida (los anunciantes escogen a quién llegar), anuncios interactivos (las empresas piden a los usuarios que hagan algo en su publicidad) y finalmente, los anuncios contextuales en los que se muestra cuáles de nuestros amigos gustan de cierta marca o producto”.

Pese a que Facebook y el resto de redes sociales obtienen beneficios adicionales por otras vías, tales como acuerdos con terceras empresas que venden sus productos en sus plataformas o la comercialización de bienes virtuales con su propia moneda (“Facebook credits” en el caso de la red americana), ingresar dinero por la publicidad es el modelo preferido por este tipo de plataformas. ¿Pero qué tiene de especial esta circunstancia? Los datos que manejan. Afirmaba Schneier que existen en Facebook, y en gran medida en otras redes sociales, hasta seis tipos de datos: información que el usuario mete para abrir su cuenta, aquellos datos que va subiendo a su perfil, lo que luego va publicando, los comentarios que suben otros sobre él y los datos sobre los hábitos de las personas.
Ese volumen de datos permite a Facebook ofrecer bases de datos a empresas interesadas en prospecciones de mercado o en negocios basados en perfiles personales. Se posibilita así investigar las preferencias de un segmento de población, acotado según edades y área geográfica y llegar al público adecuado en el momento justo.

El caso de Twitter, según publicaba el diario El País hace algunas semanas, es similar. Twitter comercializa ciertos datos de sus usuarios. Tales datos, afirmaba el diario, “contienen información muy valiosa, si se sabe aprovechar. Dicen mucho acerca de quién, cómo, cuándo y dónde se ha originado el tuit. Un filón para quien se dedique a la minería de datos que, después venderá a las agencias de publicidad y mercadotecnia.”

En este nuevo ecosistema social las marcas, que pugnan por saber qué demandan sus usuarios, tienen a su alcance la posibilidad de segmentar el perfil del usuario al que quieren hacer llegar su mensaje, multiplicando su efecto. Lo cierto es que los usurarios consideran las redes sociales como parte de sus vidas, por lo que el anunciante puede tener la seguridad de dirigirse a personas reales con un verdadero interés en sus productos.

La propia red social Facebook expone en su web, como caso de éxito, el de la empresa CM Fotographic: “Los anuncios de Facebook permitieron a CM Photographic segmentar su publicidad a su grupo demográfico exacto: mujeres de 24 a 30 años cuya situación sentimental en Facebook fuera que estaban comprometidas. En un año, la inversión en publicidad en Facebook de CM Photographics por valor de 600 USD generó unos ingresos de casi 40.000 USD”.

La legalidad de estas prácticas viene amparada normalmente en la aceptación por los usuarios de las condiciones de uso de las redes sociales y en la aceptación de aquéllos de los parámetros por defecto establecidos por la red social. El consentimiento y la información se configuran como elemento básico del tratamiento de los datos. La cuestión radica aquí en determiner si el usuario está conveniente informado del modo en que sus datos son tratados por la red social. En definitiva, legal o no, parafraseando a Schneier, “los usuarios de Facebook no somos sus clientes; somos su producto”.

Fuente: Blog: lainformación.com

29 de mayo de 2011

Comportamiento Organizacional. "El efecto del esfuerzo”

Si tienes personal a tu cargo, o si eres padre (que es una forma de tener “personal a tu cargo”), deja de hacer lo que estés haciendo y ponte a leer “El efecto del esfuerzo”. Es un artículo sobre la profesora de psicología de Stanford, Carol Dweck. Examina el estudio que hizo durante treinta años de por qué algunas personas algunas triunfan y otras no. (Una pista: la respuesta no es “gracias a un talento divino.”)

El artículo explica que la gente tiene dos tipos de mentalidad: de crecimiento o fija. Las personas con mentalidad de crecimiento ven la vida como una serie de retos y oportunidades para mejorar. Las personas con una mentalidad fija creen que ellos ya están asentados de forma permanente como buenos o malos. El problema es que los buenos creen que no tienen que trabajar mucho porque ya son buenos, y los malos creen que el trabajar mucho no les va a cambiar nada puesto que son malos de forma fija.

Hace poco Carol Dweck publicó un libro llamado “Mentalidad: La nueva psicología del éxito”.
Para darles un aperitivo sobre el artículo y su trabajo, aquí hay una parte del artículo titulado “¿Qué les decimos a los niños?” Yo me he tomado la libertad de añadir [empleado] para mostrar lo relevante que este artículo puede ser dentro del mundo de los negocios.

Tienes un niño [empleado] que sobresale, y quieres que tenga éxito. Deberías decirle lo inteligente que es, ¿verdad?

Eso es lo que el 85 por ciento de los padres encuestados le dijeron a Dweck. Pero la investigación que hizo con estudiantes de quinto grado muestra lo contrario. Las etiquetas, aunque sean positivas, pueden ser perjudiciales. Pueden inculcar una mente fija y todo el equipaje que esto conlleva, desde la ansiedad sobre cómo será su rendimiento hasta la tendencia a abandonar rápidamente.

Esas palabras bien intencionadas pueden minar la motivación y el goce del aprendizaje de los niños [empleados] y mermar su rendimiento. Aunque el estudio de Dweck se centró en los halagos a la inteligencia, dice que sus conclusiones son válidas para todos los talentos y habilidades.

Éstas son algunas sugerencias que Dweck aporta en su libro sobre la mentalidad:

Escucha lo que le dices a tus hijos [o a los trabajadores], prestando atención a los mensajes que estás enviando sobre la mentalidad.
En lugar de alabar la inteligencia o el talento de los niños [empleados] de los niños céntrate en los procesos que utilizan.
Por ejemplo: “Esa tarea era muy larga y complicada. La verdad es admiro cómo fuiste capaz de concentrarte y  terminarla. “
Por ejemplo: “Ese dibujo tiene unos colores preciosos. Cuéntame cómo lo has hecho”.
Por ejemplo: “Ese trabajo está muy pensado. Realmente me hace mirar a Shakespeare de una manera nueva”.
Cuando tu hijo [empleado] meta la pata, proporciónale crítica constructiva-retroalimentación que ayude al niño [empleado] a entender cómo solucionar el problema, en lugar de etiquetar o excusar al niño [empleado].
Presta atención a las metas que estableces para tus hijos [trabajadores]. Tener talento innato no es una meta, pero aumentar sus habilidades y su conocimiento sí que lo es.

Sin embargo, no te preocupes por elogiar demasiado a tus hijos [trabajadores] por su bondad intrínseca. Es importante para los niños [empleados] el saber que son buenos de base y que sus padres les quieren incondicionalmente, dice Dweck. “El problema surge cuando los padres de los niños [o los responsables de los empleados] alaban a los niños de una manera que les hace sentir que son buenos y dignos de amor sólo cuando se comportan de manera concreta que les gusta a los padres”.

Estos son algunos puntos para reflexionar: tal vez esto explica la marcha inexorable hacia la mediocridad de muchas (temporalmente) grandes empresas. Digamos que en su inicio marchan muy bien. Proveen algo interesante y alcanzan el éxito. Por lo tanto, son capaces de atraer a los mejores empleados, a los más brillantes, y con más talento. A personas que desde la infancia se les ha dicho que son los mejores. En efecto, el ser contratado por una empresa que va muy bien es una “prueba” de que son jugadores de primera: de hecho, la compañía es tan buena que incluso puede “robarle” empleados a Google y Microsoft  y les ha escogido a ellos, luego es porque son muy buenos.

Desafortunadamente, desarrollan una mentalidad asentada en el hecho de que son los más talentosos, y piensan que el éxito continuo es un derecho suyo. Los problemas surgen porque el talento puro sólo funciona mientras que las cosas son fáciles. Y además, son personas que no se arriesgan, porque el fracaso sería perjudicial para su imagen de ser los mejores, los más brillantes, y con más talento. Y cuando ellos fallan, lo niegan o lo atribuyen a otra cosa en lugar de a sus defectos.

Y este es el principio del fin.

Artículo de Guy Kawasaki.

24 de mayo de 2011

10 grandes éxitos del Código Abierto

Si te dan a elegir entre un desarrollo de código propietario y otro de código abierto, elige el segundo, porque tardarás menos, incluso días menos, en hacer bien tu trabajo

Según una encuesta encargada por BMC y llevada a cabo por Forrester, el tiempo medio para resolver el problema en una aplicación es de 6,9 días para los desarrolladores empresariales y 6,7 días para los vendedores de software. El diez por ciento de estos problemas necesitan unos 10 días para ser resueltos, indica el estudio.

Por otro lado, Evans Data Corporation (EDC) acaba de publicar su encuesta bianual realizada a varios cientos de desarrolladores de código abierto y Linux (algunos directivos también, pero sobre todo programadores). Las cifras aquí varían. El tiempo medio entre que se descubre que existe un problema serio en el software y se resuelve es, en el 36 por ciento de los casos, menor a las ocho horas. Sí, sí. Horas. No días. No semanas.


Algunos de los grandes éxitos del Código Abierto:

La decisión de Oracle de devolver OpenOffice.org a la Comunidad Open Source es un claro síntoma de la popularidad que están obteniendo este tipo de desarrollos, pero no es el único. A continuación mostramos algunos de los más importantes.

1. Oracle devuelve OpenOffice.org a la comunidad
Después de que varios responsables del proyecto se desmarcaran de Oracle y establecieran LibreOffice, Oracle admitía que OpenOffice.org “estará mejor administrado por una organización centrada en servir a ese amplio grupo de personas sobre una base no comercial”.


2. Yahoo! se une a la Fundación Linux en abril de 2011
Gran parte de los servicios que ofrece la compañía de Internet, Yahoo!, están desarrollados en base a arquitecturas basadas en código abierto. A comienzos de este año formalizaba su soporte e incorporación en la comunidad Linux.


3. Hadoop en todas partes
El marco de trabajo Hadoop, perteneciente a la Apache Foundation y especializado en proporcionar la ejecución de aplicaciones segmentadas en grandes clusters, es utilizado por grandes compañías tecnológicas, como Google, Amazon, Facebook y la propia IBM.

4. Firefox, a la caza de Internet Explorer
El navegador web Mozilla Firefox está basado en código abierto y en la actualidad disfruta de una cuota de mercado de casi el 30%, aunque en algunos territorios europeos ya supera a Internet Explorer. Google Chrome, también bajo esta filosofía, sigue creciendo con el paso de los meses.

5. OpenStack, el sistema operativo para entornos cloud
Lanzado de forma conjunta por Rackspace y la NASA en Julio de 2010, el sistema operativo para la nube OpenStack tiene entre sus contribuidores a empresas de la talla de Dell y Opscode.

6. Android OS, el gran rival de Apple iOS
Otro de los sistemas operativos que está triunfando en el segmento tecnológico es Android, diseñado para gobernar dispositivos móviles como smartphones y tabletas. Para analistas como Gartner, será el único capaz de plantarle cara a Apple iOS, consiguiendo en 2012 cerca de la mitad de cuota de mercado.

7. El proyecto Hudson sigue los pasos de OpenOffice.org
Más recientemente, a comienzos de mayo de este mismo año, Oracle ha vuelto a llevar a cabo una iniciativa similar a la realizada con OpenOffice. En esta ocasión, el proyecto Hudson, ideado para promover estándares abiertos para el manejo de derechos digitales, pasa a manos de la Fundación Eclipse.

8. El Gobierno de Estados Unidos se decanta por Drupal
En febrero de este año, La Casa de Representantes de Estados Unidos seleccionó el CMS basado en código abierto Drupal para gestionar los contenidos del sitio House.gov, algo que ya habían hecho anteriormente la Casa Blanca o el Departamento de Energía norteamericano, Energy.gov.

9. Watson también está basado en estándares abiertos
El supercomputador que ganó el popular concurso de televisión Jeopardy! Frente a humanos está construido en base a 10 racks de servidores POWER 750 gobernados por Linux. Además, Watson utiliza la arquitectura de análisis basada en código abierto UIMA (Unstructured Information Management Architecture) para encontrar las respuestas a las preguntas solicitadas.

10. Twitter, también
La plataforma de microblogging está basada en código abierto y varios de sus ingenieros son los mismos que contribuyen en el desarrollo de plataformas como Ruby, Java y Scala.
Fuente: DiarioTI


23 de mayo de 2011

Tres temas (preocupantes) que amenazan la Red de redes.

El día 17 de mayo, fue el Día Mundial de Internet ¿Pero en realidad hay algo que celebrar?

1- Censura

Cuando Tim Berners-Lee concibió la World Wide Web en 1990 lo hizo para que fuera una herramienta global y accesible pero, lamentablemente, estos dos adjetivos no siempre acompañan a la Red. Aunque en España todavía podemos disfrutar íntegramente de los contenidos de Internet (habrá que esperar a lo que acontece una vez comience a aplicarse la Ley Sinde) no pueden decir lo mismo en otros países.


Los gobiernos de naciones como China o Irán son frecuentes censores de cualquier servicio o web que consideren peligrosas o amenazantes para sus intereses. Servicios de correo, redes sociales, páginas de noticias… el veto no tiene fin y se extiende cada semana. En el caso mandarín, la labor de la administración no sólo se reduce a ‘moderar’, sino también a adoctrinar.

Con estos fines China acaba de crear una nueva agencia para la supervisión de Internet, ‘State Internet Information Office’, cuyo objetivo es “coordinar y supervisar el contenido online y gestionar las aprobaciones administrativas de los negocios relacionados con las noticias en línea”. Lejos de tratarse de una entidad para facilitar la burocracia, todo apunta a que China pretende añadir otra capa de control a la Red.

En muchos casos los propios gobiernos de estos países censores auspician la creación de otros servicios que imitan a los bloqueados, pero siempre con tintes ideológicos afines. El control y la participación no sólo pasa por las webs, sino también por los proveedores de redes y las compañías de telecomunicaciones.

Las revoluciones ocurridas en algunos países del Norte de África y Oriente Medio han puesto de manifiesto la importancia de Internet para dar voz a los que hasta ahora no la tenían, pero también la rapidez con la que sus gobiernos actúan a la hora de ponerles una mordaza digital. Egipto o Siria han sido algunos de los países que han realizado “apagones” informativos para evitar que sus ciudadanos expresaran lo que estaba pasando. A su vez, las compañías tecnológicas han intentado esquivar el bloqueo con, por ejemplo, la creación de aplicaciones como “speak2tweet”, un software desarrollado por Google, Twitter y SayNow que, mediante llamadas, permitía convertir mensajes orales en tweets escritos.

Con la intención de acabar con esta lacra para la sociedad de la información, desde Estados Unidos estarían impulsando un proyecto para ayudar a salvaguardar la defensa de los derechos civiles y garantizar la libertad de expresión online de aquellos territorios donde la misma se ve limitada.

El plan, en el que el país norteamericano invertirá un total de 30 millones de dólares, se sostendrá sobre una tecnología que funcionará como una “honda”, identificando los contenidos censurados y lanzándolos de nuevo al ciberespacio para que los usuarios de Internet consigan acceder a él. Las vías para ello serían el correo electrónico, los blogs y otras fuentes en línea.

2- Ruptura de la neutralidad

Otro de los grandes peligros que afectan a Internet es la ruptura de la neutralidad. Se considera a una ‘red neutral’ como aquella en la que se puede realizar una comunicación de un punto a otro sin alterarse su contenido, sin embargo este principio comienza a pender de un hilo.

La saturación de la Red, ocasionada por el auge de las redes móviles en los últimos años, ha ocasionado que los proveedores y operadores se planteen dejar de suministrar tarifas planas y comenzar a ofrecer ofertas segmentadas en paquetes de datos. Las telecos se han mostrado firmes al esgrimir que se deben crear nuevos modelos ya que “el actual no será sostenible en el futuro cercano”.

Durante la segunda mitad de 2010 el asunto - a debate desde hace una década- volvía a salir a la palestra, con algunos gigantes TIC como Google, posicionándose a favor de regular Internet y proporcionar una conexión diferente a aquellos usuarios que quieran un Internet de contenidos de alta calidad.

En diciembre, la Comisión Federal de Comunicaciones de EE.UU, aprobó una norma para legislar la neutralidad en la Red, sin embargo, fue muy criticada por sus interpretaciones “amplias y ambiguas” y debido a que sólo afecta a las conexiones terrestres por cable y no a las conexiones inalámbricas, permitiendo que los proveedores puedan seguir discriminando según qué tráfico.

Mientras el país norteamericano ha impulsado esta normativa otra habría surgido de forma algo subversiva. Con el nombre de Anti-Counterfeiting Trade Agreement (ACTA) se estaría impulsando un tratado internacional de obligado cumplimiento que permitiría a los operadores cortar una conexión tras tres infracciones sin otorgar el derecho de defensa a los usuarios. Los expertos de propiedad intelectual de países como Alemania, Francia, Holanda, reino Unido o España alertan de que atentaría contra la neutralidad de la Red y otorgaría un poder exagerado a los operadores.

En la actualidad habría dos frentes territoriales. Por un lado, legislaciones como las de Chile, Finlandia o Islandia, que se posicionan hacia los derechos de los usuarios y por otro, otras como las de Francia o nuestro país, que apostarían por una monitorización de la transferencia de datos dejando a los jueces al margen.

Todas las medidas en pro-neutralidad no han satisfecho las peticiones de bloggers, especialistas y analistas que advierten del problema que puede venirse encima. Mientras se buscan soluciones a la saturación del espectro las telecos siguen insistiendo en que el modelo está a punto de cambiar y en que las compañías que ofrecen servicios online también deberán pagar “su parte”.


3- Vulnerabilidad

Si algo se ha puesto de manifiesto las últimas semanas es que ninguna información en la red está a salvo. Las brechas de seguridad son el pan de cada día en navegadores, programas, aplicaciones, servicios y plataformas web. Pero a los fallos y agujeros, explotados convenientemente por los hackers, se une la incesante actividad de éstos para reventar páginas web y hacerse con información personal de miles y hasta millones de usuarios. Los datos se venden posteriormente en paquetes y a un precio asequible a través de foros especializados en los que se suelen mover este tipo de cibercriminales.

Uno de los casos más preocupantes es el que ha visto involucrado al servicio online de Sony. Esta semana se ha vuelto a reactivar PlayStation Network tras casi cuatro semanas de cierre y la exposición de más de 100 millones de cuentas. La firma japonesa ha reactivado la plataforma con nuevas medidas de seguridad, pero puede ser cuestión de tiempo que alguien vuelva a superarlas.

Los concursos de hacking ponen de manifiesto que la seguridad de todo producto es susceptible de ser violada. En este tipo de competiciones, los especialistas, hackers amateurs y a veces las propias empresas de seguridad, muestran que es cuestión de horas llevarlo a cabo en el último producto o solución anunciada. El colectivo de hacktivistas Anonymous también ha demostrado en numerosas ocasiones -principalmente gracias a ataques DDoS- que cualquier página puede ser tumbada en poco tiempo.

Las compañías de Internet tampoco lo están haciendo demasiado bien en materia de privacidad. Google y Facebook están en el punto de mira de reguladores de diferentes países por su laxo tratamiento de los datos personales. Aunque estas firmas se esfuerzan por mejorar su gestión de la información privada y en añadir mayores opciones de seguridad a fuerza de ensayo-error, se han convertido en un objetivo muy jugoso para los amigos de lo ajeno online. Así, rara es la semana que no se conoce un nuevo virus para redes sociales como Twitter o Facebook, o para plataformas móviles ligadas a Internet, como Android o iOS.

Pese a todas estas barreras y escollos, Internet es hoy en día el medio más eficiente para la comunicación y la información, amén de constituir una importante fuente de progreso y de crecimiento para el delicado momento económico que atravesamos. Los mandamases de compañías claves en la Red como Google, Facebook y Amazon, discutirán su papel vital participando en la reunión con el G8 que tendrá lugar a finales de mes en París.

Fuente: ITespresso

20 de mayo de 2011

"Chromebook fracasará"

Sin virus, sin mantenimiento, sin copias de seguridad... Google parece haber dado con una fórmula mágica con la que pretende revolucionar el mercado de los computadoress. Los responsables de dicho cambio en la industria serán los nuevos Chromebook, unos portátiles basados en la plataforma de código abierto Chromium y cuya peculiaridad es que no necesitan contar con un disco duro, puesto que todo su almacenamiento se realizará en la ‘nube’. La idea, sobre el papel, no tiene pegas: el usuario compra una plataforma que le pone en conexión con su contenido en servidores remotos. Adiós a los quebraderos de cabeza derivados de la pérdida de información, software obsoleto o continuas actualizaciones. Chromebook lo hace todo por el usuario y a un precio muy competitivo. Sin embargo, el futuro no pinta del todo brillante, al menos para algunos. Así, el conocido columnista Mike Elgan firma un artículo en Computerworld que está levantando ampollas dado su elocuente titular: ‘Por qué fracasarán los Chromebook’.


Nube no, ‘nubarrón’

Google apuesta fuerte por la nube. Es la filosofía que le ha llevado en parte al éxito y sin duda una tendencia de futuro. Pero, ¿realmente el usuario particular quiere alojar toda su información en servidores remotos? Elgan apunta que mientras los usuarios corporativos son cada vez más proclives a mantener todos sus datos en la nube, el particular prefiere mantener el contenido en discos duros que pueda mantener y gestionar sin conexiones externas. El dato no es menor: Chromebook se dirige a ambos mercados, y de confirmarse este vaticinio, erraría el tiro en un trozo de la tarta que se antoja irrenunciable.

Está, además, el fantasma de la privacidad. Google ha tenido que dar ya demasiadas explicaciones en torno a su política relativa al almacenamiento de datos. ¿Qué ocurrirá si ahora son dueños y señores del contenido de todos los discos duros de sus clientes? Por otro lado, tal y como apunta el columnista, los usuarios pueden ya optar con tener todos sus servicios en la nube: basta con comprarse un netbook muy económico y funcionar con filosofía cloud ¿Por qué siguen optando por instalar aplicaciones en los discos duros?

Otro elemento de vital importancia ha sido esgrimido como un argumento ante el posible batacazo de los Chromebook entre los usuarios ‘domésticos’: el apartado estético. “Los Chromebook son feos”, escribe Elgan. El apunte tiene su base: los computadoress que más éxito están cosechando en el mercado son los portátiles ultra finos, en los que el fabricante otorga al diseño tanta importancia como a las prestaciones en el hardware. Los equipos mostrados por Acer y Samsung, los primeros fabricantes de la plataforma, son toscos y excesivamente sobrios para un mercado acostumbrado a las líneas imposibles del Series 9, del propio fabricante coreano, o del MacBook Air. “Chromebook fracasará”, concluye rotundo el columnista.

En lo que sí que acierta Google es asumir que el mercado está cambiando. Los computadores ya no serán lo que eran y el propio Steve Jobs se refirió a ello en la presentación del iPad 2, acuñando un término que está dando mucho juego: la “era post-PC”. La irrupción de los tablets en el mercado está poniendo las cosas patas arriba y los principales fabricantes están viviendo en su propio pellejo el caprichoso giro en las tendencias dado por el usuario particular: HP y Dell reconocen un frenazo importante en las ventas de computadores. Los analistas no dudan en atribuir esta caída a la fiebre por los tablets, pero también al éxito continuado de los smartphones, cada vez más versátiles y potentes, mercado, que por cierto, sí pisa con aplomo Google.

Fuente: El Confidencial

Las diez tecnologías avanzadas que cambiarán el mundo


Estamos en la sociedad del conocimiento y algunos grandes avances, nuevos inventos y descubrimientos progresarán exponencialmente.

Michael Crichton en su libro “Presa” nos señala los peligros para la sociedad de la nanociencia a través de un experimento donde la computación, nuevos artefactos y las nanomáquinas desempeñan un papel decisivo. Las ventajas y desventajas de los nuevos inventos e innovaciones tecnológicas deberán evaluarse cuidadosamente antes de que algún paso fatal en nuestra historia sea irreversible.

1- Redes de sensores sin cable.

Redes de sensores sin cable (Wireless Sensor Networks)

La creación de redes compuestas de miles o millones de sensores. Las redes observarán casi todo, incluyendo el tráfico, el tiempo, actividad sísmica, los movimientos de batallones en tiempo de guerra, y el estado de edificios y puentes, a una escala mucho más precisa que antes.

2- Ingeniería inyectable de tejidos

Ingeniería inyectable de tejidos (Injectable Tissue Engineering).
Para sustituir a los tradicionales trasplantes de órganos, se está a punto de aplicar un método por el que se inyecta articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos..

3- Nano-células solares

Nano-células solares (Nano Solar Cells).
Puede ser que el sol sea la única fuente con suficiente capacidad para hacer que no seamos dependientes de combustibles fósiles. No obstante, atrapar la energía solar requiere capas siliconas que aumentan los costes hasta 10 veces el coste de la generación de energía tradicional. A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con otros materiales de la construcción, sino que ofrece la promesa de costes de producción baratos que permitirán que la energía solar se convierta en una alternativa barata y factible.

4- Mecatrónica

Mecatrónica (Mechatronics).
Para mejorar todo desde ahorro de combustible al rendimiento del mismo en sus diferentes prestaciones. Los que investigan automóviles del futuro estudian “Mecatrónica”, la integración de sistemas mecánicos ya familiares con nuevos componentes y control de software inteligente.

5- Sistemas informáticos Grid

Sistemas informáticos Grid (Grid Computing).
En los años 80, los protocolos intranet nos permitieron enlazar dos computadores y la red Internet estalló. En los años 90, el protocolo de transferencia de hipertextos nos permitía enlazar dos documentos, y una enorme biblioteca tipo “centro comercial” llamado el World Wide Web (la Red) estalló. Ahora, los llamados protocolos grid nos podrán enlazar casi cualquier cosa: bases de datos, herramientas de simulación y visualización y hasta la potencia grandísima, enorme, de los computadores en sí. Y puede ser que pronto nos encontremos en medio de la explosión más grande hasta la fecha. Según Ian Foster de Argonne National Laboratory, “avanzamos hacia un futuro en el que la ubicación de recursos informáticos no importa”. Se ha desarrollado el Globos Toolkit, una implementación “open-source de protocolos grid” que se ha convertido en un tipo estandarizado. Este tipo de protocolos pretenden aportar a las maquinas domésticas y de oficinas la capacidad de alcanzar el ciberespacio, encontrar los recursos que sean, y construirles en vivo en las aplicaciones que les hagan falta. La computación, el código abierto, de nuevo en alza.

6- Imágenes moleculares

Imágenes moleculares (Molecular Imaging).
Las técnicas recogidas dentro del término imágenes moleculares permiten que los investigadores avancen en el análisis de cómo funcionan las proteínas y otras moléculas en el cuerpo. Grupos de investigación en distintos sitios del mundo trabajan para aplicar el uso de técnicas de imagen magnéticas, nucleares y ópticas para estudiar las interacciones de las moléculas que determinan los procesos biológicos. A diferencia de rayos x, ultrasonido y otras técnicas más convencionales, que aportan a los médicos pistas anatómicas sobre el tamaño de un tumor, las imágenes moleculares podrán ayudar a descubrir las verdaderas causas de la enfermedad. La apariencia de una proteína poco usual en un conjunto de células podrá advertir de la aparición de un cáncer.

7- Litografía Nano-impresión

Litografía Nano-impresión (Nanoimprint Lithography).
En diversos sitios del mundo, se desarrollan sensores, transistores y láser con la ayuda de nanotecnología. Estos aparatos apuntan hacia un futuro de electrónica y comunicadores ultra-rápidos, aunque todavía se carece de las técnicas adecuadas de fabricación de los hallazgos logrados en el laboratorio. Según Stephen Choue, ingeniero universitario de Princeton, “Ahora mismo todo el mundo habla de la nanotecnología, pero su comercialización depende de nuestra capacidad de fabricar”. La solución podría ser un mecanismo algo más sofisticado que la imprenta, según Choue. Simplemente a través de la impresión de una moldura dura dentro de una materia blanda, puede imprimir caracteres más pequeños que 10 nanómetros. Esto parece sentar la base para nano fabricación.
8- Software seguro y fiable

Software seguro y fiable (Software Assurance).
Los computadores se averían – es un hecho ya contrastado por la experiencia diaria. Y cuando lo hacen, suele ser por un virus informático. Cuando se trata de un sistema como control aéreo o equipos médicos, el coste de un virus pueden ser vidas humanas. Para evitar tales escenarios, se investigan herramientas que produzcan software sin errores. Trabajando conjuntamente en MIT, investigadores Lynch y Garland han desarrollado un lenguaje informático y herramientas de programación para poder poner a prueba modelos de software antes de elaborarlo.

9- Glucomicas

Glucomicas (Glycomics).
Un campo de investigación que pretende comprender y controlar los miles de tipos de azúcares fabricados por el cuerpo humano para diseñar medicinas que tendrán un impacto sobre problemas de salud relevantes. Desde la artrosis reumática hasta la extensión del cáncer. Investigadores estiman que una persona está compuesta por hasta 40.000 genes, y que cada gen contiene varias proteínas. Los azúcares modifican muchas de estas proteínas, formando una estructura de ramas, cada una con una función única.

10- Criptografía cuántica

Criptografía cuántica (Quantum Cryptography).
El mundo funciona con muchos secretos, materiales altamente confidenciales. Entidades como gobiernos, empresas e individuos no sabrían funcionar sin estos secretos altamente protegidos. Nicolás Gisin de la Universidad de Génova dirige un movimiento tecnológico que podrá fortalecer la seguridad de comunicaciones electrónicas. La herramienta de Gisin (quantum cryptography), depende de la física cuántica aplicada a dimensiones atómicas y puede transmitir información de tal forma que cualquier intento de descifrar o escuchar será detectado.

Esto es especialmente relevante en un mundo donde cada vez más se utiliza el Internet para gestionar temas. Según Gisin, “comercio electrónico y gobierno electrónico solo serán posibles si la comunicación cuántica existe”. En otras palabras, el futuro tecnológico depende en gran medida de la “ciencia de los secretos”.