martes, 13 de septiembre de 2016

satelite de facebook explota

Un cohete SpaceX Falcon 9 explotó en Florida, convirtiéndose en la segunda pérdida de una nave espacial propiedad de la empresa de Elon Musk en poco más de un año y entorpeciendo el esfuerzo por parte Facebook Inc. para extender el acceso a internet en África.

El incidente ocurrió el jueves en el complejo de lanzamiento espacial 40 de Cabo Cañaveral mientras SpaceX se preparaba para el lanzamiento el próximo sábado de Amos-6, un satélite de comunicaciones israelí.

La explosión sucedió cuando el cohete estaba siendo cargado con combustible después de una prueba de motores, lo que provocó una espesa columna de humo negro y que las ventanas de varios edificios ubicados a cientos de metros de la plataforma de lanzamiento vibraran, según algunos tuits. Tanto el cohete Falcon 9 como el satélite fueron destruidos.

"Pérdida del vehículo Falcon hoy durante la operación de llenado de propulsor", dijo Musk en un tuit. "Se originó cerca de la parte superior del tanque de oxígeno. Se desconoce la causa. Más información en breve".

El CEO de Facebook, Mark Zuckerberg dijo que se sentía "profundamente decepcionado" por el accidente.

No estaba claro si alguien resultó herido por la explosión. Un portavoz de SpaceX no devolvió de inmediato un llamado telefónico por comentarios y un portavoz de la NASA dijo que no tenía información y que la agencia no estaba involucrada en la prueba.

Personas en edificios ubicados a varios kilómetros del lugar escribieron en las redes sociales que sintieron la explosión y publicaron imágenes que mostraban llamas y una densa columna de humo. No había más detalles disponibles de inmediato.

Musk fundó SpaceX en 2002 con el objetivo de recortar costos de lanzamiento para hacer más accesible un viaje a Marte. La compañía planea enviar su primer vuelo no tripulado al planeta rojo en 2018 y llevar a humanos para 2024.

PROYECTO FACEBOOK
"El acuerdo podría bien ser cancelado o podrían reducir el precio", dijo Meir Slater, jefe de investigación del Banco de Jerusalén. "Esos satélites están asegurados, por lo tanto los bonistas están cubiertos, pero los accionistas pierden, porque cualquier daño hecho a los satélites significa una pérdida de clientes como Facebook".

El satélite destruido tenía la intención de proveer de servicio de internet a la África subsahariana como parte de una colaboración entre Facebook y Eutelsat para conectar a la gente en partes remotas del mundo, escribió Zuckerberg en una publicación del 5 de octubre. El Amos-6 tenía la tarea de cubrir grandes áreas del oeste, este y sur de África, dijo Zuckerberg.

proyecto caballo de troya

El “sistema básico” que había impulsado la operación consistía en el descubrimiento de una entidad elemental en la formación de la materia y del propio universo: el swivel, que tiene la propiedad de cambiar la orientación de sus hipotéticos ejes, transformándose así en un swivel diferente. El tiempo podía asimilarse a una serie de swivels cuyos ejes están orientados ortogonalmente con respecto a los radios vectores que implican distancias. Tal descubrimiento hizo imaginar las más espléndidas posibilidades de viajes al futuro y al pasado. Se decidieron por realizar la operación. Se tuvieron en cuenta  tres «momentos» de la historia de la humanidad como posibles e inmediatos candidatos para una elección final. Era el 10 de marzo de 1971. Los tres objetivos en cuestión fueron los siguientes: 1.º Marzo-abril del año 30 de nuestra era. Justamente, los últimos días de la pasión y muerte de Jesús de Nazaret. 2.º El año 1478. Lugar: Isla de Madera. Objetivo: tratar de averiguar si Cristóbal Colón pudo recibir alguna información confidencial, por parte de un predescubridor de América, sobre la existencia de nuevas tierras, así como sobre la ruta a seguir para llegar hasta ellas. 3.º Marzo de 1861. Lugar: los propios Estados Unidos de América del Norte. Objetivo: conocer con exactitud los antecedentes de la guerra de Secesión y el pensamiento del recién elegido presidente Abraham Lincoln. Se decidieron por la primera y la llamaron Caballo de Troya. La Operación  contemplaba dos fases perfectamente claras y definidas. Una primera, en la que el módulo sufriría el  proceso de inversión de masa,forzando los ejes del tiempo de los swivels hasta el día, mes y año previamente fijados. En este primer paso, como es lógico, mi compañero y yo permaneceríamos a bordo hasta el «ingreso» en la fecha designada y definitivo asentamiento en el Punto de contacto. La segunda -sin duda la más arriesgada y atractiva- obligaba al abandono de la «cuna» por parte de uno de los exploradores, que debía mezclarse con el pueblo judío de aquellos tiempos, convirtiéndose en testigo de excepción de los últimos días de la vida de Jesús el Galileo. Ese era mi «trabajo». Este cometido -en el que no quise pensar hasta llegado el momento final- me obligó durante esos años a un febril aprendizaje de las costumbres, tradiciones más importantes y lenguas de uso común entre los israelitas del año 30. Buena parte de esos 21 meses los dediqué a la dura enseñanza de la lengua que hablaba Cristo: el arameo occidental o galilaico. Siguiendo los textos de Spitaler y de su maestro en la universidad de Munich, Bergsträsser, no fue muy difícil localizar los tres únicos rincones del planeta donde aún se habla el arameo occidental: la aldea de Ma’lula, en el Antilibano, y las pequeñas poblaciones, hoy totalmente musulmanas, de Yubb’adin y Bah’a, en Siria. Caballo de Troya contaba con dos técnicas, desconocidas, que yo sepa, por la comunidad científica. La primera fue desarrollada y puesta a punto por los laboratorios de ingeniería genética de la Navy. Durante años, como es habitual, la Inteligencia Militar fue «absorbiendo » y «haciendo suyos» los interesantes descubrimientos de científicos como Khorana y Niremberg (descifradores del lenguaje del código genético), Smith y K. Wilcox (descubridores de las enzimas de restricción), A. Kornberg y su equipo (que hallaron la polimerasa) y Berg (que produjo la primera molécula de ADN recombinado), entre otros muchos. La segunda tenía sus orígenes en la Nanotecnología.  Se trataba de una magnífica obra de ingeniería biológica, puesta al servicio de la operación, y fundamentada en los descubrimientos de Leland Clark y Guilbaut, de la Fundación de Investigación Infantil de Cincinnati y de la Universidad de Louisiana, respectivamente. El primero, con sus trabajos sobre biosensores, y el segundo, al construir un sistema que podía medir la urea en los fluidos corporales, merced a un microelectrodo que era capaz de registrar los cambios en la concentración de ion amonio, permitieron a los laboratorios militares la obtención de los «nemos», así bautizados en recuerdo del legendario capitán Nemo y de sus viajes submarinos. Cada «nemo», por utilizar términos sencillos, consiste en una especie de «microsensor» (casi un minisubmarino), de treinta nanómetros de tamaño (un nanómetro equivale a la milmillonésima parte del metro). Dependiendo de las necesidades de cada «misión», los «nemos» variaban de tamaño. Lo habitual eran los ya referidos treinta nanómetros (tamaño de un virus), pero Caballo de Troya disponía también de «batallones» de «nemos», con espesores de cien nanómetros. Actuaban como «sondas», y también como «correctores», proporcionando toda clase de información. Eran una «bendición», en lo que se refiere al diagnóstico médico, pero también una arma de doble filo, peligrosísima. Desde mediados de la década de los años cincuenta, cuando Clark inventó el electrodo que medía el oxígeno disuelto en la sangre, los laboratorios militares no han cesado de trabajar para la obtención de «nemos» que puedan destruir a un supuesto enemigo. Imagino que el hipotético lector de este diario adivinará a qué tipo de horrores me estoy refiriendo. Es por ello por lo que no haré una descripción detallada de estos asombrosos «robots orgánicos», capaces de llegar al último rincón del cuerpo humano de «fotografiarlo», de transmitir los datos y de destruir o corregir todo tipo de células, si así fuera necesario. Los nemos  identificaría y transmitiría por radio el patrón de bandas. Es decir, el «perfil genético» del individuo. La «huella», una vez en poder del ordenador, era amplificada a voluntad.) Esta diminuta maravilla de la Ciencia -únicamente programable con el concurso de Ordenador  ahorraba muchas de las fases de la primera técnica de identificación del ADN, excepción hecha de las ya mencionadas. En definitiva, un sistema más rápido, limpio y fiable. De acuerdo con el Mayor la técnica de clonación (transferencia nuclear) fue descubierta por los militares mucho antes de que Watson y Compton Crick (1953) presentaran al mundo el modelo estructural del ácido desoxirribonucleico. La clonación consiste en fundir mediante un pulso eléctrico dos células humanas o de animales. En una de ellas (huevo no fecundado u ovocito) se extrae el núcleo y se sustituye por otro que contiene el código genético que se desea clonar. El pulso eléctrico provoca la división celular y el nuevo embrión empieza a ser viable. En el momento indicado,  dicho embrión  es implantado en una madre de alquiler o vigilado en laboratorio. De esta forma se consigue un doble físico (no mental o espiritual) del ADN que se desea. El material dispone de la información necesaria para el desarrollo del individuo.

python

Python es un lenguaje de programación interpretado cuya filosofía hace hincapié en una sintaxis que favorezca un código legible.
Se trata de un lenguaje de programación multiparadigma, ya que soporta orientación a objetosprogramación imperativa y, en menor medida, programación funcional. Es un lenguaje interpretado, usa tipado dinámico y es multiplataforma.
Es administrado por la Python Software Foundation. Posee una licencia de código abierto, denominada Python Software Foundation License,1 que es compatible con la Licencia pública general de GNU a partir de la versión 2.1.1, e incompatible en ciertas versiones anteriores.

Python fue creado a finales de los ochenta2 por Guido van Rossum en el Centro para las Matemáticas y la Informática (CWI, Centrum Wiskunde & Informatica), en los Países Bajos, como un sucesor del lenguaje de programación ABC, capaz de manejar excepciones e interactuar con el sistema operativo Amoeba.3
El nombre del lenguaje proviene de la afición de su creador por los humoristas británicos Monty Python.4
Van Rossum es el principal autor de Python, y su continuo rol central en decidir la dirección de Python es reconocido, refiriéndose a él comoBenevolente Dictador Vitalicio (en inglés: Benevolent Dictator for Life, BDFL).
En 1991, van Rossum publicó el código de la versión 0.9.0 en alt.sources.5 En esta etapa del desarrollo ya estaban presentes clases con herencia, manejo de excepciones, funciones y los tipos modulares, como: strlistdict, entre otros. Además en este lanzamiento inicial aparecía un sistema de módulos adoptado de Modula-3; van Rossum describe el módulo como “una de las mayores unidades de programación de Python”.2 El modelo de excepciones en Python es parecido al de Modula-3, con la adición de una cláusula else.3 En el año 1994 se formó comp.lang.python, el foro de discusión principal de Python, marcando un hito en el crecimiento del grupo de usuarios de este lenguaje.
Python alcanzó la versión 1.0 en enero de 1994. Una característica de este lanzamiento fueron las herramientas de la programación funcional:lambdareducefilter y map. Van Rossum explicó que “hace 12 años, Python adquirió lambda, reduce(), filter() y map(), cortesía de un hacker informático de Lisp que las extrañaba y que envió parches”.6 El donante fue Amrit Prem; no se hace ninguna mención específica de cualquier herencia de Lisp en las notas de lanzamiento.
La última versión liberada proveniente de CWI fue Python 1.2. En 1995, van Rossum continuó su trabajo en Python en la Corporation for National Research Initiatives (CNRI) en Reston, Virginia, donde lanzó varias versiones del software.
Durante su estancia en CNRI, van Rossum lanzó la iniciativa Computer Programming for Everybody (CP4E), con el fin de hacer la programación más accesible a más gente, con un nivel de 'alfabetización' básico en lenguajes de programación, similar a la alfabetización básica en inglés y habilidades matemáticas necesarias por muchos trabajadores. Python tuvo un papel crucial en este proceso: debido a su orientación hacia una sintaxis limpia, ya era idóneo, y las metas de CP4E presentaban similitudes con su predecesor, ABC. El proyecto fue patrocinado por DARPA.7 En el año 2007, el proyecto CP4E está inactivo, y mientras Python intenta ser fácil de aprender y no muy arcano en su sintaxis y semántica, alcanzando a los no-programadores, no es una preocupación activa.8
En el año 2000, el equipo principal de desarrolladores de Python se cambió a BeOpen.com para formar el equipo BeOpen PythonLabs. CNRI pidió que la versión 1.6 fuera pública, continuando su desarrollo hasta que el equipo de desarrollo abandonó CNRI; su programa de lanzamiento y el de la versión 2.0 tenían una significativa cantidad de traslapo.9 Python 2.0 fue el primer y único lanzamiento de BeOpen.com. Después que Python 2.0 fuera publicado por BeOpen.com, Guido van Rossum y los otros desarrolladores de PythonLabs se unieron en Digital Creations.
Python 2.0 tomó una característica mayor del lenguaje de programación funcional Haskell: listas por comprensión. La sintaxis de Python para esta construcción es muy similar a la de Haskell, salvo por la preferencia de los caracteres de puntuación en Haskell, y la preferencia de Python por palabras claves alfabéticas. Python 2.0 introdujo además un sistema de recolección de basura capaz de recolectar referencias cíclicas.9
Posterior a este doble lanzamiento, y después que van Rossum dejó CNRI para trabajar con desarrolladores de software comercial, quedó claro que la opción de usar Python con software disponible bajo GNU GPL era muy deseable. La licencia usada entonces, la Python License, incluía una cláusula estipulando que la licencia estaba gobernada por el estado de Virginia, por lo que, bajo la óptica de los abogados de Free Software Foundation (FSF), se hacía incompatible con GPL. CNRI y FSF se relacionaron para cambiar la licencia de software libre de Python para hacerla compatible con GPL. En el año 2001, van Rossum fue premiado con FSF Award for the Advancement of Free Software.
Python 1.6.1 es esencialmente el mismo que Python 1.6, con unos pocos arreglos de bugs, y con una nueva licencia compatible con GPL.1

Código Python con coloreado de sintaxis.
Python 2.1 fue un trabajo derivado de Python 1.6.1, así como también de Python 2.0. Su licencia fue renombrada a:Python Software Foundation License. Todo el código, documentación y especificaciones añadidas, desde la fecha del lanzamiento de la versión alfa de Python 2.1, tiene como dueño a Python Software Foundation (PSF), una organización sin ánimo de lucro fundada en el año 2001, tomando como modelo la Apache Software Foundation.1Incluido en este lanzamiento fue una implementación del scoping más parecida a las reglas de static scoping (del cual Scheme es el originador).10
Una innovación mayor en Python 2.2 fue la unificación de los tipos en Python (tipos escritos en C), y clases (tipos escritos en Python) dentro de una jerarquía. Esa unificación logró un modelo de objetos de Python puro y consistente.11 También fueron agregados los generadores que fueron inspirados por el lenguaje Icon.12
Las adiciones a la biblioteca estándar de Python y las decisiones sintácticas fueron influenciadas fuertemente porJava en algunos casos: el package logging,13 introducido en la versión 2.3, está basado en log4j; el parser SAX, introducido en 2.0; el package threading,14 cuya clase Thread expone un subconjunto de la interfaz de la clase homónima en Java.

FUENTE: wikipedia.org

arduino

Arduino (en EEUUGenuino a nivel internacional) es una compañía de hardware libre y una comunidad tecnológica que diseña y manufactura placas de desarrollo de hardware y software, compuesta respectivamente por circuitos impresos que integran unmicrocontrolador y un entorno de desarrollo (IDE), en donde se programa cada placa. Arduino se enfoca en acercar y facilitar el uso de la electrónica y programación de sistemas embebidos en proyectos multidisciplinarios.1 2 Toda la plataforma, tanto para sus componentes de hardware como de software, son liberados bajo licencia de código abierto que permite libertad de acceso a los mismos3 .
El hardware consiste en una placa de circuito impreso con un microcontrolador, usualmente Atmel AVR, puertos digitales y analógicos de entrada/salida,4 , los cuales pueden conectarse a placas de expansión (shields), que amplían las características de funcionamiento de la placa Arduino. Asimismo, posee un puerto de conexión USB desde donde se puede alimentar la placa y establecer comunicación serial con el computador.
Por otro lado, el software consiste en un entorno de desarrollo (IDE) basado en el entorno de Processing y lenguaje de programación basado en Wiring, así como en el cargador de arranque (bootloader) que es ejecutado en la placa.4 El microcontrolador de la placa se programa a través de un computador, haciendo uso de comunicación serial mediante un convertidor de niveles RS-232 a TTL serial.
La primera placa Arduino fue introducida en el 2005, ofreciendo un bajo costo y facilidad de uso para novatos y profesionales, buscando desarrollar proyectos interactivos con su entorno mediante el uso de actuadores y sensores. A partir de octubre de2012, se incorporaron nuevos modelos de placas de desarrollo que hacen uso de microcontroladores Cortex M3, ARM de 32 bits,5 que coexisten con los originales modelos que integran microcontroladores AVR de 8 bits. ARM y AVR no son plataformas compatibles en cuanto a su arquitectura y por lo que tampoco lo es su set de instrucciones, pero se pueden programar y compilar bajo el IDE predeterminado de Arduino sin ningún cambio.
Las placas Arduino están disponibles de forma ensambladas o en forma de kits "Hazlo tu mismo" (por sus siglas en inglés <<DIY>>). Los esquemas de diseño del Hardware están disponibles bajo licencia Libre, permitiendo a cualquier persona crear su propia placa Arduino sin necesidad de comprar una prefabricada. Adafruit Industries estimó a mediados del año 2011 que, alrededor de 300,000 placas Arduino habían sido producidas comercialmente y en el año 2013 estimó que alrededor de 700.000 placas oficiales de la empresa Arduino estaban en manos de los usuarios.
Arduino se puede utilizar para desarrollar objetos interactivos autónomos o puede ser conectado a software tal como Adobe FlashProcessingMax/MSPPure Data, etc. Una tendencia tecnológica es utilizar Arduino como tarjeta de adquisición de datos desarrollando interfaces en software como JAVA, Visual Basic y LabVIEW 6 . Las placas se pueden montar a mano o adquirirse. El entorno de desarrollo integrado libre se puede descargar gratuitamente.
El proyecto Arduino recibió una mención honorífica en la categoría de Comunidades Digitales en el Prix Ars Electrónica de 2006 

Arduino se inició en el año 2006 como un proyecto para estudiantes en el Instituto IVREA, en Ivrea (Italia). En ese tiempo, los estudiantes usaban el microcontrolador BASIC Stamp, cuyo coste era de 100 dólares estadounidenses, lo que se consideraba demasiado costoso para ellos. Por aquella época, uno de los fundadores de Arduino, Massimo Banzi, daba clases en Ivrea.11
El nombre del proyecto viene del nombre del Bar di Re Arduino (Bar del Rey Arduino) donde Massimo Banzi pasaba algunas horas. El rey Arduino fue rey de Italia entre los años1002 y 1014. En la creación de este proyecto contribuyó el estudiante colombiano Hernando Barragán, quien desarrolló la tarjeta electrónica Wiring, el lenguaje de programación y la plataforma de desarrollo.12 Una vez concluida dicha plataforma, los investigadores trabajaron para hacerlo más ligero, más económico y disponible para la comunidad de código abierto (hardware y código abierto). El instituto finalmente cerró sus puertas, así que los investigadores, entre ellos el español David Cuartielles, promovieron la idea.11Banzi afirmaría años más tarde, que el proyecto nunca surgió como una idea de negocio, sino como una necesidad de subsistir ante el inminente cierre del Instituto de diseño Interactivo IVREA. Es decir, que al crear un producto de hardware abierto, este no podría ser embargado.
Posteriormente, Google colaboró en el desarrollo del Kit Android ADK (Accesory Development Kit), una placa Arduino capaz de comunicarse directamente con teléfonos móviles inteligentes bajo el sistema operativo Android para que el teléfono controle luces, motores y sensores conectados de Arduino.13 14
Para la producción en serie de la primera versión se tomó en cuenta que el coste no fuera mayor de 30 euros, que fuera ensamblado en una placa de color azul, debía ser Plug and Play y que trabajara con todas las plataformas informáticas tales como MacOSXWindows y GNU/Linux. Las primeras 300 unidades se las dieron a los alumnos del Instituto IVREA, con el fin de que las probaran y empezaran a diseñar sus primeros prototipos.
En el año 2005, se incorporó al equipo el profesor Tom Igoe,12 que había trabajado en computación física, después de que se enterara del mismo a través de Internet. Igoe ofreció su apoyo para desarrollar el proyecto a gran escala y hacer los contactos para distribuir las tarjetas en territorio estadounidense. En la feria Maker Fair de 2011 se presentó la primera placa Arduino 32 bit para realizar tareas más pesadas.

FUENTE: wikipedia.org

ciudad inteligente

La expresión «ciudad inteligente» es la traducción y adaptación del término en idioma inglés «smart city». Es un concepto emergente, y por tanto sus acepciones en español y en otros idiomas, e incluso en el propio idioma inglés,1 están sujetas a constante revisión. Es también un término actual, que se está utilizando como un concepto de marketing(mercadotecnia) en el ámbito empresarial, en relación a políticas de desarrollo, y en lo concerniente a diversas especialidades y temáticas.
La «ciudad inteligente» a veces también llamada «ciudad eficiente» o «ciudad súper-eficiente», se refiere a un tipo de desarrollo urbano basado en la sostenibilidad2 que es capaz de responder adecuadamente a las necesidades básicas de instituciones, empresas, y de los propios habitantes, tanto en el plano económico, como en los aspectos operativos, sociales y ambientales.3
Una ciudad o complejo urbano podrá ser calificado de inteligente en la medida que las inversiones que se realicen en capital humano (educación permanente, enseñanza inicial, enseñanza media y superior, educación de adultos…), en aspectos sociales,1 en infraestructuras de energía (electricidad,4 gas),5 6 tecnologías de comunicación (electrónica, Internet) e infraestructuras de transporte,4 contemplen y promuevan una calidad de vida elevada, un desarrollo económico-ambiental durable y sostenible, una gobernanzaparticipativa,7 una gestión prudente y reflexiva de los recursos naturales, y un buen aprovechamiento del tiempo de los ciudadanos.
Las ciudades modernas, basadas en infraestructuras eficientes y durables de agua, electricidad, telecomunicaciones, gas, transportes, servicios de urgencia y seguridad, equipamientos públicos, edificaciones inteligentes de oficinas y de residencias, etc., deben orientarse a mejorar el confort de los ciudadanos, siendo cada vez más eficaces y brindando nuevos servicios de calidad, mientras que se respetan al máximo los aspectos ambientales y el uso prudente y en declive de los recursos naturales no renovables.8

Smart City Nansha,9 en Guangzhou,China.
Actualmente, el concepto de ciudad (más) inteligente, o de espacio (más) inteligente, es muy utilizado en marketing por parte de expertos en sociedades comerciales y en aglomeraciones urbanas. Sin embargo, en muchos casos, se pone énfasis en un solo aspecto, lo que en buena medida traiciona el concepto que se intenta desarrollar, que tiene un importante componente holístico e integral.10
En efecto, una ciudad o un territorio que se considere inteligente se manifiesta fundamentalmente por su carácter multidimensional y multifacético, en términos de actores, en cuanto a dominios clave (transportes, energía, educación, salud, residuos,4 vigilancia, economía…), y en desarrollo y utilización de tecnologías.11 Naturalmente, los principales actores del sector privado implicados en un proyecto como el analizado de ciudadterritoriobarrio o edificio inteligente, son los industriales y empresarios de sectores clave, tales como energía, agua, transportes, y servicios… así como dirigentes de empresas públicas de telecomunicaciones e infraestructuras, editores, proveedores de logicales de apoyo a la gestión, así como a la administración y a la consultoría.

En líneas generales, una ciudad se puede definir como "inteligente" o como "inteligentemente eficiente", cuando la inversión social, el capital humano, las comunicaciones, y las infraestructuras, conviven de forma armónica con el desarrollo económico sostenible, apoyándose en el uso y la modernización de nuevas tecnologías (TIC), y dando como resultado una mejor calidad de vida y una gestión prudente de los recursos naturales, a través de la acción participativa y el compromiso de todos los ciudadanos.

Tarjeta inteligente en un torniquete del Metro de la Ciudad de México.
Desde el punto de vista tecnológico, una "ciudad inteligente" viene a ser un sistema ecosostenible de gran complejidad (sistema que contiene muchos subsistemas), o sea, un ecosistema global en el que coexisten múltiples procesos íntimamente ligados y que resulta difícil abordar o valorar de forma individualizada.
La IATE (base de datos de referencia de la Unión Europea) enfatiza en relación a este concepto -vinculado con la logística y el conjunto de tecnologías y de procedimientos- que se podría colaborar en la administración y ordenamiento de algunas ciudades, de forma que para el año 2020 se reduzcan las emisiones de gases de efecto invernadero en más del 20 % (en comparación con el año 2010), se aumente un 20 % el uso de energías renovables para la producción de electricidad, calefacción, y climatización, se incremente en un 20 %, la eficacia en el consumo energético por parte de los consumidores finales y se reduzca hasta un 20% el consumo de energías primarias.17 En definitiva, se apunta a lograr un desarrollo urbano o territorial que mejore activamente la calidad de vida del ciudadano, conciliando y satisfaciendo las necesidades tanto de las empresas e instituciones como de las personas, gracias al uso extendido de las TICs, en comunicación, movilidad, eficiencia energética, y uso sostenible del medio ambiente y recursos naturales.18 19
En la práctica, y a nivel popular, se concibe una ‘Smart City’ como una ciudad comprometida con su entorno, con elementos arquitectónicos de vanguardia y donde las infraestructuras están dotadas de las soluciones tecnológicas más avanzadas. Una ciudad que facilita la interacción del ciudadano con los diversos elementos institucionales, urbanos, y tecnológicos, haciendo que su vida cotidiana sea más fácil, y permitiendo el acceso a una cultura y una educación que hacen referencia tanto a los aspectos ambientales, como a los elementos culturales e históricos.
El concepto de "smart city" se articula sobre la base de cuatro ideas esenciales:20
  • Las cuestiones ambientales y las restricciones energéticas;
  • La comunicación fluida de los actores entre sí: colectividades, ciudadanos, empresas, instituciones;
  • El uso compartido de bienes y servicios, con una activa participación de los usuarios en la concepción de productos, servicios, y modalidades operativas, y renunciando en algunos casos a la propiedad y uso individual;
  • La integración de las nuevas tecnologías de la información y de la comunicación, la robótica y los sistemas inteligentes de transporte, que potencian el funcionamiento en red; la modificación de la matriz energética a favor de las energías renovables, y el cambio de comportamiento y usos por parte de los ciudadanos.
Para Rudolf Giffinger, las "ciudades inteligentes" pueden ser identificadas y clasificadas, según seis criterios principales o dimensiones principales,21 22 y dichos criterios son:
  • economía,
  • movilidad,
  • medioambiente,
  • habitantes,
  • forma de vida,
  • administración.
Estos seis criterios o aspectos se conectan con las tradicionales teorías regionales y neoclásicas del crecimiento y desarrollo urbano, y respectivamente están basados en la teoría de la competitividad regional, en la economía de los transportes y de las tecnologías de la información y de la comunicación, en los recursos naturales, en el capital humano y social, en la calidad de vida, y en la participación de los ciudadanos en la vida democrática de la ciudad.
Para Jean Bouinot, «la ville intelligente est celle qui sait à la fois attirer et retenir des entreprises employant de la main-d'œuvre hautement qualifiée» (en español: « la ciudad inteligente es la que atrae la instalación de empresas, que en líneas generales emplean mano de obra calificada y altamente cualificada»).23 24
Y para Fadela Amara, una "ciudad inteligente" lo es fundamentalmente a través de la digitalización, utilizando todo el abanico de tecnologías disponibles al servicio de los ciudadanos. Igualmente, una "ciudad inteligente" debe ser capaz de crear empleos, además de tener un sistema de transportes de alta calidad al servicio de los residentes, para así garantizar una buena y cómoda movilidad. A esta lista también se agregan, hogares saludables y funcionales, un buen sistema sanitario y educativo, y facilidades en materia de ocio y diversión.25
Las definiciones planteadas varían según el autor consultado, lo que no debe sorprender pues como ya se dijo, el concepto es emergente y dinámico. Por otra parte, se observa que se llama ciudad inteligente a algo que no tiene todas las características enunciadas, que no manifiesta una preocupación notable por el medioambiente, o está lejos de esa componente holística e integral a la que antes se hacía referencia, entonces nos acercaríamos más al concepto de 'ciudad planificada', o 'ciudad digital'. Se entiende este escaso apego a la terminología o una cierta tergiversación debido a intereses comerciales o de tipo político. En muchos casos, las campañas de promoción y propaganda toman al ideal de la ciudad inteligente como atractivo lema publicitario.

FUENTE: wikipedia.org

realidad virtual

La realidad virtual es un entorno de escenas u objetos de apariencia real, generado mediante tecnología informática, que crea en el usuario la sensación de estar inmerso en él. Dicho entorno es contemplado por el usuario a través normalmente de un dispositivo conocido como gafas o casco de realidad virtual. Este puede ir acompañado de otros dispositivos, como guantes o trajes especiales, que permiten una mayor interacción con el entorno así como la percepción de diferentes estímulos que intensifican la sensación de realidad.
La aplicación de la realidad virtual, aunque centrada inicialmente en el terreno del entretenimiento y de los videojuegos, se ha extendido a otros muchos campos, como la medicina, la arqueología, la creación artística, el entrenamiento militar o lassimulaciones de vuelo.

La realidad virtual ha eliminado la frontera existente entre realidad e irrealidad. No se trata en este caso de la imposibilidad de separación entre lo real y aquello que no lo es, sino la difusión de los límites que los separan. La amplia variedad de posibilidades que ésta ofrece, ha facilitado el establecimiento de un estatus de realidad, sustentado fundamentalmente en tres aspectos:
  • La realidad virtual es compartida con otras personas. Se centra generalmente en la interacción interpersonal, que a pesar de no producirse en el mismo espacio-tiempo, sí es percibida como un acto colectivo.
  • Tiene una estrecha relación con el mundo físico dada su interrelación e influencia mutua. La experiencia en la realidad virtual viene mediada por la experiencia en el mundo real y ésta es influida por lo que allí es experimentado.
  • Está interconectada con la producción artística, ya que se convierte en un espacio más de creación con motivaciones estéticas.
La generación de nuevas oportunidades en entornos diversos ha facilitado la existencia de posibilidades emergentes para la reconstrucción de la propia identidad. Los entornos virtuales, y más concretamente la realidad virtual, han generado un espacio de moratoria para la construcción de la identidad sustentada en la creación de más de un yo. La existencia de estas identidades múltiples favorece la experimentación, pudiendo adoptar, potenciar o desestimar aspectos puestos en práctica en estos entornos, en la propia cotidianidad. Se trataría pues de un espacio de interrelación entre los espacios cotidianos y la realidad virtual, en que las propias experiencias en estos entornos producen una mutua influencia, generando una ruptura de las fronteras entre ambos.

pokemon go

Pokémon GO es un videojuego de aventura de realidad aumentada desarrollado por Niantic, Inc.
 para dispositivos iOS y Android. Es free-to-play, contiene microtransacciones, pero su descarga y desarrollo son completamente gratuitos. El juego consiste en buscar, capturar y luchar con los personajes de la saga Pokémon escondidos en ubicaciones del mundo real, lo que establece que hay que desplazarse físicamente por las ciudades para progresar. La aplicación refuerza el concepto de interacción social, ya que obliga a reuniones físicas de los usuarios en distintas ubicaciones de sus poblaciones. El éxito y acogida producido tras su lanzamiento aumentó fuertemente el valor en bolsa de las acciones de Nintendo.


El videojuego requiere que el jugador recorra las calles de su ciudad para descubrir toda clase de Pokémon, cuyas distintas especies aparecen dependiendo de la zona visitada. Las calles del mundo real aparecen representadas en Pokémon GO en forma de mapa, que muestra el lugar donde se encuentra el jugador. Además, los mapas de Pokémon GO integran diferentes Poképaradas (Pokéstops) que permiten conocer museos, instalaciones artísticas, monumentos y lugares históricos, entre otros.
Utiliza la realidad aumentada y de acuerdo con el concepto original, los entrenadores podrán capturar Pokémon hasta completar una colección. Otro objetivo es adiestrarlos para que ganen batallas frente a otros. Haciendo uso del GPS del teléfono, la app le avisará con una vibración y una luz intermitente cuando el usuario se encuentre cerca de un Pokémon. Para jugar se usan monedas llamadas pokemonedas.
Cuando el jugador o entrenador Pokémon enciende la cámara de su teléfono, se puede encontrar con una imagen virtual de un Pokémon, superpuesta sobre la escena real tras la lente. Para capturar las criaturas, se utilizan Pokebola. Esta es una de las características por la que se considera que el juego se basa en la realidad aumentada, ya que permite ver la realidad mezclada con elementos de ficción a través de un teléfono inteligente. Pokémon GO, el increíble juego de realidad aumentada desarrollado por Niantic, no solo permite capturar pokémon en el mundo real, sino también te permite volverte líder de gimnasio de Pokémong Go, algo que muy pocos usuarios logran.
Por si no lo sabes, los gimnasios de Pokémon GO, a diferencia del anime y los videojuegos clásicos, no tienen un líder permanente, sino que cualquier jugador puede serlo, siempre y cuando venza al líder que lo protege.
Por lo general, los gimnasios de pokémon se encuentran en lugares accesibles para los jugadores de Pokémon GO

FUENTE: wikipedia.org

computadora d-WAVE

Y es que, un ordenador cuántico como el D-Wave 2x funciona usando, como decíamos, qubits en vez de bits. Estos "ladrillos" básicos de información permiten realizar operaciones mucho más complejas que los ordenadores clásicos. Esto se debe a que estamos llegando a los límites atómicos que nos permiten construir transistores y puertas lógicas, la base de toda computación. Excepto si seguimos los inescrutables caminos de la física cuántica, allí donde nada de lo que vemos tiene sentido. Gracias a propiedades tan complejas e íntimas como el entrelazamiento cuántico o las características del espín atómico, los ordenadores cuánticos son capaces de hacer lo que nunca imaginaríamos que se pudiera hacer.

El D-Wave 2x parece una enorme caja, como los primeros computadores. Pero mucho más estilizado, eso sí. Es el ordenador cuántico más potente que existe en el mercado y no sin razones. Es capaz, como decíamos, de alcanzar los 1000 qubits, el doble que su antecesor y precursor. Además, reduce notablemente el llamado "ruido de qubits", que, grosso modo, se produce debido a la interferencia molecular que existe entre partículas. Para poder funcionar, usa un procesador de superconductores, que permite el paso electrónico sin interferencias y permite que el material funcione de una manera imposible a temperatura normal. Para ello, como decíamos, ha de alcanzar los 15 milikelvin, o 0.0015 K. El D-Wave 2x es capaz de procesar información 600 veces más rápido que los ordenadores convencionales y eso solo con 1000 qubits. Pero la cuestión no es tan sencilla. De hecho, la finalidad del D-Wave 2x es en realidad la investigación de la propia naturaleza cuántica de estos computadores para poder mejorar su utilidad y su producción.