Author: admin

  • Google quiere vacunarse contra el ‘efecto Facebook’

    Google quiere vacunarse contra el ‘efecto Facebook’

    El gigante online enfatiza el poder de los usuarios sobre sus datos para evitar el contagio de la crisis de credibilidad de las grandes tecnológicas. ¿Qué te ofrece hacer con tu información?

    Un cartel bien visible en la recepción de las oficinas de Google España advierte a los visitantes de que no pueden tomar fotos sin autorización y les insta a no compartir alegremente información sensible. Nota mental del periodista que acude a hacer un reportaje sobre la privacidad de los datos en el gigante de internet: la suya, eso seguro, se la toman en serio, y no solo en el mundo digital.

    Pero la sensación de empresa blindada y con un punto paranoica queda enseguida mitigada cuando el mismo periodista es conducido al pequeño despacho de la directora general en España, Fuencisla Clemares. “Como estamos constantemente reunidos, ahora mismo no tenemos una sala libre”, dice a modo de disculpa la responsable de comunicación. Allí, entre dibujos infantiles dedicados a la jefa, tan privados o más que cualquier búsqueda online, transcurrirá la entrevista con Greg Fair, directivo de Google a cargo de varios grupos de trabajo sobre privacidad y datos.

    Lleva trabajando en Google desde 2012, siempre alrededor de los datos de los usuarios, y también regatea la primera impresión: antes que ejecutivo global del gigante de internet fue músico –“canté ópera durante ocho años, y por eso hablo algo de italiano, pero lo dejé, en parte porque estaba harto de llegar peluca”-, y además era jugador “competente” de fútbol, si bien la ‘buena’ de la familia era su hermana Lorrie, campeona del mundo en 1999 y olímpica en Sídney 2000.

    Pero Fair no está en el despacho de Clemares para hablar de fútbol, sino de la estrategia de Google en el terreno de la privacidad, uno de los principales campos de batalla para las ‘big tech’ desde que el estallido del escándalo de Cambridge Analytica.

    ¿Está marcando este caso un antes y después en el uso que de los datos hacen las grandes compañías? Cuando Mark Zuckerberg va, nosotros ya estamos volviendo, parece decir Fair, que saca pecho de la trayectoria de Google: “Llevamos años en esto, y lo hacemos porque estamos convencidos de que es bueno para nuestro negocio. Lo importante es generar confianza. Si los usuarios no confían en Google, no usarán Google. Es así de sencillo”, explica.

    Sede de Google en Madrid

    Google cuenta con una división especializada en privacidad desde 2009, y acaba de inaugurar un centro especializado de Ingeniería de Seguridad en Múnich, donde investigarán a final de año 200 expertos específicos en la materia. Fair trabajó un año en la ciudad alemana, donde entre otras labores se ocupó de la adaptación de la compañía al nuevoReglamento Europeo de Protección de Datos (GDPR por sus siglas en inglés). “Es la regulación sobre privacidad más importante de la última década, y de alguna forma marca la referencia, el estándar de la discusión”.

    “Estamos absolutamente convencidos de que tenemos que trabajar con los reguladores en todos los asuntos de seguridad”, asegura Fair, pero, sin esperar a las normas, Google ofrece a sus usuarios un ‘hágalo usted mismo’ en cuanto a sus datos.

    El concepto de privacidad, aseguran en la multinacional, varía mucho no solo entre los diferentes países, sino entre individuos. “La privacidad está muy ligada a la seguridad, y hay gente que se siente segura con la puerta de su casa abierta y otros que quieren echar tres cerrojos”. Lo mejor es que cada uno decida. Así que Google presume de haber sido de las primeras grandes compañías que permite al usuario hacer su propia configuración de privacidad. Veinte millones de personas visitan diariamente Google Account, donde cada usuario decide qué comparte y qué borra. Y lo que se borra, desaparece de verdad, asegura Fair, que precisamente dirige el equipo de la empresa responsable de que los datos se eliminen en el tiempo y escala solicitados por cada usuario.

    Además de en la personalización de los datos, Google lleva un tiempo trabajando en su portabilidad. La idea es sencilla: si los datos son del usuario, las empresas deben ofrecerle la posibilidad de recopilarlos, descárgaselos y llevárselos a donde quiera, como determina la GDPR. “El usuario no puede sentirse atrapado, y es más probable que confíe en ti si sabe que puede llevarse sus datos dónde quiera y cómo quiera. Por eso llevamos años diseñado herramientas de portabilidad, junto a otras compañías, y ya tenemos unas 70”, dice con cierto orgullo Fair. Entre los socios de Google en este proyecto están Microsoft, Dropbox, Twitter y la propia Facebook.

    Pero, un momento: ¿no vive Google de los datos personales? A botepronto, el trabajo de Fair y otros muchos en Google podría asemejarse a empleados de Zara que recorriesen las tiendas diciendo a los clientes que, en realidad, esa camisa no les queda bien. “Somos una compañía de datos, no de datos personales. Nuestra labor es dar la información en un contexto, ordenada”, se defiende Fair. Ese contexto lo decide el usuario, pero, reconoce Fair, no es lo mismo ocho que ochenta. “Es un hecho que cuantos más datos tenga un sistema, más inteligente será el sistema. Y hay una expectativa de los usuarios. La cuestión es encontrar la cantidad correcta. ¿Cuánta personalización quieres? ¿Quieres decir a Google Maps que te lleve a ‘casa’ o prefieres teclear la dirección?”

    Aunque la gente no se levanta de la cama pensando en la importancia de sus datos personales, la sensación es que la barra libre se ha acabado. Por eso Sundar Pichai, CEO de Google, recalcaba en un reciente artículo en The New York Times que Google “nunca venderá información personal a terceros”, y que los datos que utilizan para personalizar la publicidad no salen de aplicaciones como Gmail o Google Docs. La sensibilidad ha cambiado, y ahora se maneja el concepto de “minimización de datos”: cómo lograr información cada vez más útil, precisa y personalizada sin recoger todo tipo de datos, sino solo los realmente necesarios. La confianza de los consumidores en los proveedores tecnológicos no es un recurso infinito, y los gigantes ya actúan en consecuencia.

    Fuente: El País Retina

  • Wereque, la planta mexicana que podría acabar con el cáncer

    Wereque, la planta mexicana que podría acabar con el cáncer

    El mexicano Max Vidal Gutiérrez, estudiante de doctorado en la Universidade Estadual Paulista, en Brasil, desarrolla dos fitofármacos con la planta Ibervillea sonorae, mejor conocida como wereque o guareque, que gracias a su actividad antitumoral podría covertirse en una opción eficaz en el tratamiento del cáncer.

    Esta planta es popular en el norte del país, principalmente en Sonora y Sinaloa, en donde ha sido usada tradicionalmente por las comunidades Mayo, Opata, Seri y Yaqui para tratar padecimientos de la piel.

    Vidal Gutiérrez, quien es egresado de Universidad de Sonora (Unison), explicó que su investigación comenzó luego de conocer los resultados obtenidos por el docente Heriberto Torres Moreno, sobre moléculas presentes en la raíz de la planta con potencial actividad antitumoral, las cuales pueden ser utilizadas como marcadores en la elaboración de fitofármacos.

    Detalló que hay dos etapas de gran importancia en el desarrollo de un fitofármaco: la parte química y la biológica, y que el proyecto comprende la integración de estas dos etapas haciendo uso de herramientas de química analítica, como: HPLC, espectrometría de masas y resonancia magnética nuclear.

    Además, reiteró, fueron estudiados los perfiles fitoquímicos de los fitofármacos previamente diseñados para su uso en la investigación contra el cáncer.

    Más adelante, cuando se realicen los estudios biológicos, se hará uso de modelos in vitro e in vivo de cáncer, para determinar la actividad antitumoral de estos dos fitofármacos, subrayó.

    Las etapas química y biológica de esta investigación se encuentran respaldadas por los prestigiados investigadores Wagner Vilegas, de la Universidade Estadual Paulista y Ramón E. Robles Zepeda, de la Universidad de Sonora, resaltó Vidal Gutiérrez durante una presentación que ofreció en el marco del Seminario del Departamento de Ciencias Químico Biológicas y Agropecuarias, de la Unison, unidad Caborca.

    Impulsan vocaciones científicas

    wereque fullHeriberto Torres Moreno, Julio César López Romero y Efraín Lugo Sepúlveda, docentes del campus Caborca y coordinadores del seminario, coincidieron que uno de los objetivos de esta actividad es estimular a los estudiantes de licenciatura a participar en proyectos de investigación.

    “Se pretende divulgar la existencia de otras áreas de estudio donde puedan aplicar los conocimientos obtenidos en la carrera, pero sobretodo dejar claro que el programa de licenciatura en el que se encuentran, les dará las herramientas necesarias para poder realizar una carrera en el área de la investigación”, indicó Torres Moreno.

    Los egresados poseen los conocimientos necesarios para cursar posgrados en áreas como Materiales, química, química orgánica, bioquímica, ciencias químico biológicas, ciencias de la salud y ciencias farmacéuticas, entre otras, agregó.

    Explicó también que en el departamento de Ciencias Químico Biológicas y Agropecuarias del campus Caborca se están desarrollando proyectos en conjunto con la Universidade Estadual Paulista, trabajo colaborativo que ha permitido la obtención de buenos resultados y la integración de estudiantes y profesores a estos proyectos.

    “Queda siempre la invitación de nuestros docentes a participar en los proyectos de investigación, así como también a continuar asistiendo a nuestras sesiones semanales del Seminario”, concluyó.

    Esta obra cuyo autor es Ciencia MX está bajo una licencia de Reconocimiento 4.0 Internacional de Creative Commons.

  • La ciencia del CERN en tu vida cotidiana

    La ciencia del CERN en tu vida cotidiana

    La ciencia aplicada en la vida cotidiana ha generado desarrollos tecnológicos deslumbrantes, así lo demuestra la Organización Europea para la Investigación Nuclear (CERN, por sus siglas en francés), donde al estudiar el origen de universo, también generó conocimiento que llevó al desarrollo de tecnología que hoy en día tiene importantes aplicaciones en los campos de la salud y las telecomunicaciones.

    confinterlhc full

    Por ejemplo, las pantallas táctiles que actualmente ocupamos en los dispositivos móviles, la World Wide Web (WWW), la PET (tomografía de emisión de positrones) y la radiografía a color, son algunas de las principales contribuciones tecnológicas que ha realizado el CERN.

     

    Así lo subrayó Gerardo Herrera Corral, científico del Centro de Investigación y de Estudios Avanzados (Cinvestav), durante su charla “El Gran Colisionador de Hadrones y sus aplicaciones”, que impartió en el Complejo Cultural Universitario (CCU), de la Benemérita Universidad Autónoma de Puebla (BUAP).

    Dicha plática fue parte de las actividades de divulgación que se realizan como parte de la Séptima Conferencia Internacional de Física del Gran Colisionador de Hadrones (LHC) que reúne a más de 400 científicos de todo el mundo.

    Ante un público diverso que incluyo desde niños hasta personas de la tercera edad, el Herrera Corral explicó en 60 minutos lo que los científicos estudian en el LHC, por qué es importante y fascinante estudiar el origen del universo y las aplicaciones que actualmente tienen algunos de los desarrollos tecnológicos que realizaron primero con el objetivo de realizar sus estudios.

    PET

    En 1977 la física Marilena Bianchi realizó una estancia sabática en el laboratorio de la radiobióloga del CERN, con una solicitud inusual. Pidió su ayuda para crear la primera imagen de un ratón con una cámara PET.

    confinterlhc 01

    Los físicos del CERN que la ayudaron fueron David Townsend y Alan Jeavons, este último había desarrollado un nuevo detector, basado en una cámara de alta densidad, y Townsend había desarrollado el software para reconstruir los datos del detector y convertirlos en una imagen.

    Una vez que estuvieron listos, Townsend le pidió a Bianchi, quien estaba desarrollando aplicaciones médicas de tecnologías CERN, que inyectara un ratón con una pequeña cantidad de radioisótopo de corta duración, que fue absorbido por el esqueleto del animal.

    El isótopo que inyectó emitió positrones. Estos positrones chocaron con electrones y en la colisión se crearon un par de fotones. Los fotones salieron en direcciones exactamente opuestas.

    Al colocar dos detectores alrededor del ratón, Jeavons y Townsend recogieron estos pares de fotones, señalando dónde ocurrieron las aniquilaciones de positrones. Días después, David Townsend tenía el primer escaneo de ratón realizado con una cámara PET.

    Si bien el PET no se inventó en el CERN, pero el trabajo realizado por los científicos del CERN Jeavons y Townsend hizo una importante contribución a su desarrollo, explicó Herrera Corral en su charla.

    Pantallas táctiles

    confinterlhc 02

    El CERN ha contribuido a lo largo de sus historia a la creación de diversos desarrollos tecnológicos que hoy son indispensables en la vida diaria del ser humano, pero la mayoría de las veces no se sabe que tuvieron su origen en el laboratorio más grande del mundo ubicado en Ginebra, Suiza, subrayó el científico mexicano.

    “Las pantallas que ahora todo mundo usa en sus celulares se desarrollaron en el CERN y poca gente los sabe. Las pantallas táctiles se desarrollaron a partir de la creación del detector SPS, que es el proyecto anterior al Gran Colisionador de Hadrones”.

    Esto fue gracias a que uno de los miles de físicos que ahí colaboraban quiso simplificar la manera de monitorear en pantallas todas las operaciones del detector, entonces se le ocurrió hacer una pantalla transparente.

    WWW

    Otra de las grandes aportaciones que ha realizado el CERN es World Wide Web (WWW), que hoy en día permite conectarnos y compartir información en cualquier parte del mundo.

    En 1989, el científico británico Tim Berners Lee inventó la World Wide Web, mientras trabajaba en el CERN. La red fue concebida y desarrollada originalmente para satisfacer la demanda de intercambio automático de información entre científicos de universidades e institutos de todo el mundo.

    Fue tan sólo cuatro años después, cuando en 1993 el CERN puso el software World Wide Web para el dominio público y hoy todo mundo puede navegar a través del triple w.

    Radiografía a color

    confinterlhc 03

    Una de las más recientes aportaciones del CERN es la radiografía a color, que si bien la desarrolló una compañía de Nueva Zelanda, este avance tecnológico es gracias a un chip desarrollado en el CERN.

    Esta nueva tecnología llamada “Spectral CT”, hace que el sensor mida la atenuación de las longitudes de onda específicas de los rayos X en la medida que pasan por los diferentes materiales, huesos, grasas, tejidos, etcétera.

    Los datos generados se corren a través de algoritmos específicos y entonces se genera una imagen 3D que claramente muestra músculo, hueso, agua y grasa, entre otras cosas.

    Por estas innovaciones y otras que mejoran la calidad de vida de los seres humanos y que se desarrollan a partir de la ciencia básica, es que se debe aportar la ciencia, señaló el especialista en física de partículas.

    Por• Doctor Gerardo Herrera Corral

    Es investigador del Departamento de Física del Cinvestav. Él encabeza el grupo científicos mexicanos en el Gran Colisionador de Hadrones (LHC), el experimento en física de partículas más ambicioso y complejo de la historia. El doctor Herrera ha centrado sus investigaciones en el estudio de la producción y decaimiento de quarks pesados y otras áreas de la física de partículas.

    Fuente: Ciencia MX

  • Instagram ya utiliza la inteligencia artificial para combatir el bullying en su red

    Instagram ya utiliza la inteligencia artificial para combatir el bullying en su red

    Hay problemas de los que tomar conciencia en algunas ocasiones es todo un proceso titánico. Sobre todo cuando hablamos de la magnitud de una sociedad, en la que estos cambios van llegando muy poco a poco, y se necesitan herramientas y concienciación colectiva. Las redes sociales son muy importantes como mentores de estos procesos, y una de las más influyentes en la actualidad es Instagram. La red social de fotografía es esa en la que quieren estar los más jóvenes, las estrellas del entretenimiento, del deporte, y al fin y al cabo es un escaparate de influencias para los más jóvenes. Algo que también convierte a esta red social en el caldo de cultivo perfecto para que se extienda el bullying sin control. Pero la red social está tomando cartas en el asunto, y además con la ayuda de la inteligencia artificial.

    Advertencias acerca de nuestros comentarios

    El bullying es algo que lametablemente forma parte del día a día de muchas personas: Pero no debemos pensar solo que quien acosa a otra persona lo hace de manera consciente, por eso la red social está implementando una nueva tecnología basada en la inteligencia artificial, que es capaz de analizar nuestros comentarios a una foto antes de que sean publicados. Esta nueva tecnología será capaz de saber si un comentario que estamos escribiendo es ofensivo para la otra persona a la que va dirigido. Y parece que este tipo de acciones están teniendo resultado, y vuelve a poner de manifiesto que muchas personas no están siendo conscientes de que están fomentando elbullying al realizar determinados comentarios.

    Así advierte Instagram de los mensajes ofensivos | Instagram

    Porque según la propia experiencia de la red social, muchos usuarios han reconsiderado sus comentarios y antes de publicarlos al ver las advertencias de esta nueva herramienta. Por lo que en algunos casos se consigue un cambio en la conducta que puede llevar a los acosadores a replantearse su manera de dirigirse a los demás. Como se puede ver en la imagen adjunta, Instagram ahora es capaz de reconocer automáticamente un comentario ofensivo dentro de un post. Algo que se advertirá con una especie de ventana emergente en la que se nos dice que la red social está preguntando a las personas a que reconsideren comentarios similares que han sido reportados por otras personas anteriormente.

    Reportando problemas con un usuario | Instagram

    Por tanto, el objetivo esta inteligencia artificial es identificar ese tipo de mensajes ofensivos que ya han sido reportados con anterioridad por otras personas, así como otros similares que también podrían entenderse como acoso. En la misma ventana Instagram nos anima a informarles igualmente si creemos que esa advertencia es un error, y que lo que estábamos escribiendo no era ofensivo. Como en todo, la percepción de lo dañino de los comentarios es distinta según la persona, pero todos entendemos con claridad qué es un comentario ofensivo y lo que no. Y de momento no se trata de señalar a las personas que comentan así, sino que estas sean conscientes de que los comentarios que están vertiendo en la red no son apropiados para una relación de respeto con las demás personas.

    Fuente: TecnoXplora

  • La mayoría de la materia de nuestro cerebro es oscura

    La mayoría de la materia de nuestro cerebro es oscura

    Un 23% está hecho de materia oscura (invisible), que los físicos intuyen que existe pero no saben lo que es. El 73% restante, es decir, casi toda la materia del universo, es energía oscura, que también es invisible. La materia bariónica (materia ordinaria) está en franca minoría en el universo.

    Pero también en el cerebro, si definimos figuradamente la materia oscura y la energía oscura como la parte no consciente de nuestra mente.

    El inconsciente

    Hasta que Sigmund Freud no teorizó acerca del inonsciente, no llegamos a entender muy bien por qué, siendo racionales como éramos, incurríamos en contradicciones de todo tipo. Freud postuló así un espacio conceptual, no manifiesto para nosotros, en el que reina la irracionalidad, es decir, que está ajena a la inferencia lógica, la causa y el efecto y el tiempo linear.

    Freud fue demasiado lejos sosteniendo que en el inconsciente redisía tanto los impulsos sexuales como los agresivos, entre otros, y llegó a escribir más literatura que ciencia, pero hoy en día la idea del subconsciente es una idea aceptada por todos, tal y como explica Joel Gold, psiquiatra clínico en la Facultad de Medicina de la NYU en Eso lo explica todo (edición de John Brockman):

    El universo consiste básicamente en materia oscura. No podemos verla, pero tiene una enorme fuerza de gravedad. La mente consciente (de manera muy similar al aspecto visible del universo) es sólo una pequeña fracción del mundo mental. La materia oscura de la mente, el subconsciente, tiene la mayor gravedad psíquica. Cuando no tnemeos en cuenta la manteria oscura del universo, aparecen las anomalías; cuando ignoramos la materia oscura de la mente, nuestra irracionalidad resulta inexplicable.

    La mente consciente tiene una capacidad de procesamiento 200.000 veces menor que el inconsciente, según un estudio de Ap Dijksterhius, Henk Aarts y Pamela K. Smith. Y, además, como añade Daniel Gilbert, psicólogo de Harvard, nuestras mentes divagan durante el 46% del tiempo, tal y como sugirió en su artículo de Science.

    Fuente: Xataka Ciencia

  • La Convergencia Tecnológica Factor Estratégico del Desarrollo

    La Convergencia Tecnológica Factor Estratégico del Desarrollo

    De 1770 a fines del siglo XX el desarrollo tecnológico marcó una tendencia
    creciente, pasando de la manufactura, a la máquina de vapor, el ferrocarril, el
    acero y la ingeniería pesada, el petróleo, el automóvil, la producción en línea
    y la electricidad, para llegar a la informática y las telecomunicaciones; pero en
    los inicios del presente siglo el desarrollo de la ciencia y la tecnología
    sentaron las bases de la convergencia, empezando con la biotecnología, la
    mente-factura, la bio-eléctrica, la nanotecnología y el descubrimiento de los
    combustibles no fósiles.

    A partir de la primera década de este 2000, el desarrollo de la técnica y de la
    ciencia están marcadas por la exponencialidad y la disrupción, pero sobre todo
    por la convergencia entre ambas dimensiones del conocimiento humano.
    La ciencia y la tecnología, en la medida que se crean y construyen se
    amplifican y aceleran, en un proceso incremental, generando impactos no
    previstos, el factor dinamizador es la Investigación multidimensional a
    velocidades inusitadas.

    Arribamos en el presente siglo a dos grandes vertientes de las macro-
    tendencias, una se refiere a las 12 tecnologías disruptivas que facilitaron la
    revolución industrial 4.0 y la industria 4.0, como la simulación 3D, los
    Sistemas de Integración Horizontal y Vertical, el Internet de las Cosas, la
    Ciberseguridad, la Computación en la Nube, la Fabricación aditiva o
    inteligente, La realidad Mixta integrando a la Realidad virtual y a la
    aumentada, el Big Data y el eje transversal que es la Inteligencia Artificial,
    siendo la esencia de la robótica, tanto virtual, como industrial y humanoide.
    La otra vertiente de macro-tendencias es la integración de la ciencia y la
    tecnología para dar paso al paradigma de “TecnoCiencia” como un proceso de
    convergencia de las diferentes disciplinas y nuevos conocimientos científicos,
    generados a una velocidad nunca vista, integrados en el acrónimo NBIC.

    Las ciencias y las tecnologías convergentes derivan en procesos de
    transferencia tecnológica y de conocimientos científicos, para convertirlos en
    la generación de la innovación y el fortalecimiento de la nueva geopolítica,
    donde las naciones se enfrentan, por ganar mercados y mejores condiciones de
    desarrollo como de bienestar para sus pueblos, en una dinámica global donde
    la investigación y la propiedad intelectual juegan un papel estratégico.
    Esta nueva lógica Tecno-Científica que categoriza y dimensiona a la sociedad
    global, contempla cuatro áreas de convergencia: la Nanociencia y la
    nanotecnología; la Biología integrando la bioquímica y la biología celular; La
    infotecnología integrando la computación cuántica, la inteligencia artificial y
    el Big Data; finalmente la llamada “Cognología” con un relacionamiento de
    ciencias como la psicología, lingüística y filosofía, la neurociencia, el
    conocimiento social, la antropología, la sociología y las ciencias económico
    administrativas y de organizaciones.

    En este contexto como resultado de la convergencia de la Inteligencia
    Artificial y los Smartphone surge la “Quinta Generación de la Tecnología
    Móvil” o sea la 5G, la cual consiste en una serie de estándares, que permite
    conectar a millones de dispositivos y procesar miles de petabytes (10 15 ) de
    datos en tiempo real, impactando a fábricas y hogares desde control remoto a
    velocidades de milisegundos, por ejemplo bajar una película de 1G tarda
    medio minuto, con el 5G tardaría menos de un segundo. Algunas de las
    aplicaciones del 5G sería la cirugía tele asistida y la conducción de vehículos
    auto dirigidos.

    La capacidad casi infinita de gobernar en la nube sistemas como las
    comunicaciones o la defensa de una nación, han puesto a la 5G en una disputa
    de geopolítica y el arma predilecta de la guerra fría entre EU y China.
    Las sociedades del mundo le están apostado al paradigma de la convergencia
    tecnológica, mientras que en México la Ciencia y la Tecnología carecen de un
    nivel estratégico en la 4T, los recortes presupuestales tanto a los centros de
    investigación como a las Universidades dan cuenta de ello.
    Está bien eliminar la corrupción, pero no solo la de ahora, sino también la de
    ayer, ni agredir a la estructura básica de las instituciones, está bien apoyar a
    los jóvenes, pero antes de darles dinero hay que desarrollar sus capacidades
    cognitivas, antes que aprendices creativos. ¿No lo cree usted?

    Por: Roberto Morales Estrella

  • Ekholm, el sueco en la carrera por dominar la 5G

    Ekholm, el sueco en la carrera por dominar la 5G

    Este año, las ferias tecnológicas más importantes del mundo, como el Consumer Electronics Show (CES) que se llevó a cabo en enero en Las Vegas, o el Mobile World Congress (MWC) de Madrid, tuvieron algo en común: sirvieron de escenario para que fabricantes de equipo expusieran sus planes y estrategias para el despliegue de la red 5G.

    Se espera que, para 2024, esa red cuente con alrededor de 1,500 millones de suscripciones y que 40% de la cobertura mundial corra a través de su infraestructura, según cifras de uno de esos fabricantes: Ericsson.

    Un despliegue que, entre otras cosas, permitirá conducir transferencia de datos en tiempo real, realizar videos de máxima resolución y llevar a los hechos tendencias de las que tanto se habla, como Internet de las Cosas (IoT) y Realidad Virtual y Aumentada, entre otros avances.

    Ericsson es una de las empresas que han levantado la mano con la intención de ponerse al frente, y Börje Ekholm, presidente y CEO, está consciente del tamaño del desafío que significa ser uno de los principales players que buscan llevar la infraestructura 5G a todo el mundo.

    Compañías como Huawei, Samsung, LG y otras han decidido lo mismo: ser de los primeros y, por supuesto, ganar terreno en ese negocio.

    Autodefinido como un fanático de la cultura y comida mexicanas, el sueco Ekholm platica, en entrevista con Forbes México, sobre cómo la empresa ya ha comenzado con esa labor y la dificultad que reviste subirse a un escenario tan competitivo como el que se configurará para el despliegue de la red 5G.

    “Por supuesto que es un mercado competitivo. Hicimos una elección estratégica hace dos años, cuando incrementamos nuestras inversiones en Investigación y Desarrollo, pasando de 20% a 30%, con la finalidad de liderar el despliegue de la red 5G”, cuenta el directivo.

    El manejo de datos ha sido una parte crucial para nosotros, para tratar de conducir el desarrollo de la tecnología 5G, y hoy vemos que somos líderes en un par de cuestiones, por ejemplo, en la distribución del espectro, lo que significa que se toma un espectro con asignaciones dinámicas entre 4G y 5G, dependiendo de los dispositivos, y se realiza en tiempo real, dependiendo de la demanda; así que esto es una cuestión de dónde ponemos diferentes frecuencias, liderando el camino”.

    Ventajas que traerá la 5G

    Acerca de los aspectos más atractivos que esta red traerá a las nuevas tendencias, como IoT y ciudades inteligentes, entre otras, el CEO de Ericsson dice que, en términos generales, la red 5G ofrece capacidades destacadas y muy diferentes a la 4G.

    La primera es que da 10 veces más velocidad, al mismo tiempo que brinda una latencia 10 veces más pequeña, lo que significa un retraso menor respecto del tiempo real. Otra de las cuestiones importantes es que también proporciona más dispositivos conectados por unidad de servicio, en lo cual también supera a la 4G.

    “Esto es importante cuando piensas en temas como IoT, ciudades inteligentes, etcétera, porque se necesita una densidad muy alta de los sensores”, indica Ekholm.

    La 5G también utiliza una energía mucho más eficiente, añade, que sólo irradia cuando se necesita. La eficiencia energética en los dispositivos será mucho mayor y alargará la vida de la batería de los sensores hasta por 10 años, por lo que se convierte en un uso diferente.

    En suma, el beat, la latencia, el número de dispositivos y la duración de la batería hacen a la 5G fundamentalmente diferente a la 4G, recapitula el CEO de Ericsson.

    Debe decirse también que, aunque la red 5G será utilizada por los consumidores en los celulares, el mayor uso estará en las aplicaciones para empresas.

    A fin de alcanzar una mayor participación en este tipo de implementaciones, tanto las investigaciones como los desarrollos de Ericsson se enfocan, por una parte, en seguir proporcionando la red 4G, y, por otra, en liderar la implementación de la conectividad 5G a un nivel de eficiencia de costos para sus clientes.

    Foto: Ericsson

    Para esto, se concentran en asegurar la conectividad de 5G, por ejemplo, en actividades de manufactura, agricultura, cuidado de la salud, educación, etcétera, señala Ekholm, donde se necesita una velocidad mayor y una latencia más baja.

    Para el usuario, 5G representa una economía de tiempo. Por ejemplo, descargar una película podrá pasar de 30 segundos a, tal vez, uno o dos segundos.

    Y, en un sentido más amplio, esta red será, para algunos, el antecedente digital de la sociedad del futuro. “Si se hace uso de la Inteligencia Artificial o aprendizaje de las máquinas, se tendrán que automatizar ciertos procesos, por lo que se necesita un mejoramiento en el tiempo real; y esto se obtendrá con 5G.

    “En Ericsson, creemos que 5G será muy importante para la competitividad de los países. En este sentido, la 4G representa la innovación, pero con la 5G se van a desarrollar nuevas aplicaciones y será crucial para la futura competitividad de las naciones y, por ello, será parte de una infraestructura nacional crítica”, visualiza Ekholm.

    Falta el espectro en México

    La implementación de la red 5G en el país ha sido controversial. Se prevé que, para 2020, México tenga, al menos, un bosquejo o acercamiento a lo que conocemos como la implementación de la red 5G, siendo 2025 cuando los usuarios podrán ver un resultado cercano a 14% en su adopción, indican datos de la organización de operadores móviles GSMA, que representa los intereses de los operadores móviles en todo el mundo.

    El proceso de adopción de la 5G en el país va más allá de calcular un año, señala Ekholm: tiene que ver con la disponibilidad de espectro. De ahí que, con uno liberado en términos razonables, se podrá implementar la red.

    Para hacer el despliegue de esta tecnología en México, Ekholm ya hizo amarres clave. “Estamos comprometidos con las unidades de operación de algunos de los operadores más importantes del país, y estamos preparando, en parte, la red para nuestros clientes, pero también para ver cuáles son los desafíos que existen en el mercado local”, explica. “Es lo que hemos hecho en los últimos meses, porque nuestros clientes están listos. Sólo se trata de la disponibilidad del espectro”.

    El mercado mexicano presenta oportunidades para Ericsson y la nueva tecnología, afirma el CEO. “La parte más interesante es que se va a resolver el consumo de datos en las redes, lo que se adoptará, básicamente, en 18 meses. Esto significa más capacidad para nuestros clientes. Esto es así porque el consumidor de hoy es muy diferente del de hace dos años; por ejemplo, el usuario ahora escucha más música y hace muchas más cosas con su teléfono.

    Resolver el problema de datos será el primer caso de uso para la red 5G, y veremos a nuestros clientes hacerlo relativamente pronto”, señala Ekholm.

    De igual modo, la empresa tiene noticias en materia de accesos fijos. Vendrá, en seguida, la preparación para el acceso inalámbrico fijo, básicamente de fibra para el hogar, para que se puedan transmitir datos a alta velocidad, posiblemente en áreas donde es costoso poner fibra; incluso, se podrá tener acceso por tecnología inalámbrica fija.

    Éstos serán los dos primeros casos de uso de la red 5G en nuestro país.

    En un siguiente nivel, estarán las empresas. Por ejemplo, las que utilizan una producción automatizada en fábricas, gestión de la cadena logística, vehículos autónomos, puertos, áreas de fábricas o almacenes tendrán las grandes aplicaciones de la red 5G. Esto tomará un poco más de tiempo y será un aumento gradual, pero va a suceder, dice el directivo.

    Planes para los siguientes años

    Sobre los planes de la compañía, el directivo asegura que actualmente trabajan en garantizar la capacidad y el potencial para implementar la red 5G en cualquier lugar donde los clientes lo requieran.

    “Esto demanda que tengamos la tecnología, productos, hardware y software para contar con la capacidad de servicio que requiere la implementación de la red, y en eso estamos trabajando ahora. Asimismo, estamos implementando equipos comerciales y redes para que lleven el tráfico de datos de la red 5G, porque esto es algo que ya hicimos en América del Norte, Suiza, Australia y en el noreste de Asia. Así que, en la actualidad, ya tenemos redes disponibles”, concluye Ekholm.

    Fuente: Forbes México

  • Wi-Fi 6, el nuevo estándar que busca mejorar el rendimiento en escenarios de alta densidad

    Wi-Fi 6, el nuevo estándar que busca mejorar el rendimiento en escenarios de alta densidad

    Desde sus inicios en 1997, el Wi-Fi se ha convertido en una parte fundamental de nuestras vidas. Damos por hecho la conectividad a través del Wi-Fi, cuando en realidad dependemos de él para mantener la productividad y dinamismo de nuestro negocio, para poder innovar rápidamente y así encontrarnos con nuevos desafíos y demandas del cliente.

    Desde la introducción del protocolo 802.11b, cada generación subsecuente de Wi-Fi ha traído consigo mayor velocidad y rendimiento para el usuario. Mientras transitamos el camino de la transformación digital, especialmente en la era de dispositivos edge computing, el nuevo estándar se enfrenta con diferentes desafíos para poder satisfacer la demanda del usuario. En mayo de 2013, el Grupo de Estudio WLAN de Alta Eficiencia, del grupo de trabajo IEEE 802.11comenzó a considerar el perfeccionamiento de la eficiencia del espectro para mejorar el rendimiento en escenarios de alta densidad en puntos de acceso/usuarios y así es como comenzó el proyecto 802.11ax, también conocido como Wi-Fi 6, en mayo de 2014.

    Osama Aboul Magd fue elegido para liderar el grupo de trabajo IEEE 802.11ax WLAN. Entrevistado para conocer lo último en estándares Wi-Fi, sus implicaciones y diversos casos relevantes para el nuevo estándar, Aboul Magd explicó por qué hubo un cambio de nombre, así como por qué los usuarios y clientes deberían considerar Wi-Fi 6, si es que no lo están planeando ya. Como explicó Osama, “Wi-Fi 6 es esencial para transformar la manera en que soportamos las aplicacionesen las redes Wi-Fi de hoy. Su implementación permite una nueva y mejorada experiencia de usuario en escenarios de implementación densos, en comparación con las generaciones anteriores de Wi-Fi”.

    Uno de los objetivos del estándar 802.11ax era tener una mejor experiencia de usuario e incrementar el rendimiento en un factor de cuatro o más para clientes de red individuales. Se esperaba que el estándar mejorara el rendimiento de Wi-Fi en entornos densos, con un gran número de usuarios, como lugares públicos, usando el espectro disponible de manera más eficiente, controlando la interferencia y realizando mejoras a protocolos como el Control de Acceso Medio (MAC). Asimismo,  la idea era comenzar a usar OFDMA, un estándar que ya se usaba en LTE y en los estándares de Wi-Fi anteriores. Esto eventualmente ayudaría a contener más datos en un mismo espacio aéreo. 

    Dado que los nombres para estándares Wi-Fi son un poco complicados, se decidió a fines del año pasado utilizar términos más sencillos de pronunciar. En resumen, el nuevo estándar 802.11ax se llamará Wi-Fi 6, mientras que las dos generaciones anteriores de tecnología Wi-Fi se llamarán Wi-Fi 4 (para 802.11n) y Wi-Fi 5 (para 802.11 A.C). 

    El cambio de nombre también destaca el hecho de que 802.11ax es, de hecho, la sexta generación de tecnología de redes Wi-Fi, muy apropiado desde el punto de vista numérico. Desde el punto de vista visual, los usuarios podrían observar en sus teléfonos inteligentes los números junto al ícono de Wi-Fi y confirmar si es Wi-Fi 4, Wi-Fi 5, o Wi-Fi 6, ayudando a simplificar los protocolos que se están utilizando. 

    Además, desde el punto de vista tecnológico, el Wi-Fi 6 no es simplemente una mejora de rendimiento para el Wi-Fi 5, sino que el Wi-Fi 6 hace algunos cambios fundamentales al estándar, incluida una amplia gama de capas físicas (PHY) y características de la capa de control de acceso medio (MAC),  complementadas con MIMO multiusuario y reutilización especial. Wi-Fi 6 agrega una mejora significativa al admitir hasta ocho flujos espaciales. El estándar Wi-Fi 6 amplía el rango de formación de haz (beamforming), permitiendo a más usuarios conectarse a los puntos de acceso de manera simultánea sin dejar de ofrecer un alto rendimiento.

    Uno de los principales usos de Wi-Fi 6 se da en entornos densos donde hay una gran cantidad de usuarios como estadios, centros comerciales, aeropuertos, auditorios o aulas. Wi-Fi 6 es realmente útil cuando los usuarios utilizan aplicaciones de uso intensivo de ancho de banda, o aplicaciones sensibles a la latencia. No sólo aumenta el rendimiento, sino que los avances tecnológicos en Wi-Fi 6 permiten una experiencia de usuario superior para el rendimiento de la aplicación, ya sea aprendizaje en tiempo real, o en aplicaciones de realidad aumentada y realidad virtual. Las aplicaciones del IOT (Internet de las Cosas) tendrán una mejora adicional mediante el uso de Wi-Fi 6, dadas las funciones como Target Wait Time (TWT), que ayuyda a reducir el consumo de energía y a conservar la vida útil de la batería.

    En entornos universitarios con más de 30 mil estudiantes, o en estadios deportivos al aire libre con 80 mil personas, todos intentando conectarse al Wi-Fi al mismo tiempo, fácilmente podrían provocar una congestión con Wi-Fi 5, pero Wi-Fi 6 resuelve este problema, ya que permite a más usuarios conectarse a un solo punto de acceso (AP) simultáneamente, y permite que los dispositivos vecinos transmitan al mismo tiempo, siempre y cuando los niveles de interferencia sean aceptables. De hecho, para la misma cantidad de usuarios y área de cobertura, la cantidad de puntos de acceso requeridos para Wi-Fi 6 es significativamente menor en comparación con los estándares anteriores, lo que lleva a ahorros sustanciales en gastos de capital. Wi-Fi 6 también se convierte en un habilitador de muchas nuevas aplicaciones y no solo las existentes, especialmente de videos UHD y 4K.

    Según Osama, compañías como Huawei han desempeñado un papel clave en el desarrollo del protocolo y el estándar de Wi-Fi 6. Además de encabezar el grupo de trabajo, Huawei proporcionó casi el 25% de las contribuciones presentadas al grupo técnico. La mayoría de estas presentaciones fueron adoptadas en el documento estándar. Huawei ha sido uno de los primeros en adoptar Wi-Fi 6 al lanzar su prototipo en 2014 y al desplegar su AP en 2017.

    En cuanto a la adquisición, ahora es un buen momento para comenzar a planear el Wi-Fi 6. Observando su estrategia de transformación digital y cómo va a afectar en la infraestructura de TI, los directores y gerentes de TI deben comenzar a pensar en el Wi-Fi 6 para facilitar el proceso de migración. Muchos de los fabricantes de hardware y proveedores de chips ya han producido chips para Wi-Fi 6 y aseguran la interoperabilidad entre ellos. Esperamos que 2019 sea el año de adopción de Wi-Fi 6, ya que muchas organizaciones comienzan a evaluar su estrategia de Wi-Fi a largo plazo a raíz de los nuevos desafíos de la digitalización.

    *Escrito por Ajay Gupta, consultor principal, marketing de productos, línea de productos datacom, Huawei.

    Fuente: Forbes México

  • No te olvides de hacer un transbordo en transporte público con Google Maps

    No te olvides de hacer un transbordo en transporte público con Google Maps

    La aplicación de mapas de Google la asociamos normalmente a su uso con el coche, introduciendo un destino y recibiendo indicaciones de cómo llegar a él. Algo lógico porque somos nosotros quienes conducimos y necesitamos conocer las indicaciones de llegada. Por tanto, cuando vamos en transporte público lo lógico es pensar que con mirar las indicaciones de las diferentes estaciones es suficiente, al fin y al cabo nos llevan. Pero nada más lejos de la realidad, porque Google Maps también es muy útil a la hora de coger el transporte público, tanto como ir en el coche con las indicaciones de la app.

    Indicaciones de Google Maps en el transporte público

    Sin duda esta información en la app de Google ha evolucionado mucho en los últimos meses, ofreciendo ya unos detalles que hace poco tiempo era difícil de imaginar. La forma de utilizar estas indicaciones es similar a la de los coches, con la diferencia de que en este caso las indicaciones son diferentes, pero se activan de manera parecida. Para empezar, debemos hacer lo mismo, introducir un destino en la barra de búsqueda, y a la hora de pulsar sobre el botón de “cómo llegar” debemos seleccionar a su vez el icono del tren, que es el del transporte público.

    Las diferentes rutas y todos sus detalles | Tecnoxplora

    Ahora veremos una serie de rutas alternativas, donde podemos elegir la ruta que más se adapta a nuestras necesidades. En este caso tenemos tres rutas distintas, que se diferencian básicamente por el número de transbordos que debemos hacer, así como por los minutos que tenemos que andar. Antes de seleccionar la ruta vemos un resumen de esta, y podemos ver que vamos a andar cinco minutos al principio, coger, una línea de cercanías, hacer un transbordo, viajar en otra línea de cercanías, y para terminar andar otros cinco minutos. De esta manera tenemos una imagen clara de la ruta que debemos hacer. Lo mejor de todo es que Google Maps nos indica muchos detalles de la ruta. Por ejemplo nos dice si el tren que vamos a coger estará o no muy lleno, siempre en base a la información que han aportado otros usuarios de la aplicación. Y también nos avisa en tiempo real de cuándo debemos hacer un transbordo de un medio de transporte a otro. De hecho, no basta con mostrarlo en el sumario de la ruta, sino que además Google Maps nos manda una notificación para que no se nos pase cambiarnos de medio de transporte a tiempo.

    Cuando estemos llegando a este punto, recibiremos una notificación de transbordo | Tecnoxplora

    Cuando elegimos el tipo de ruta que queremos llevar a cabo en transporte público, podemos elegir una serie de parámetros para encontrar la ruta ideal. Como por ejemplo medio de transporte preferido, e incluso si preferimos que haya menos transbordos, aunque esto implique que dure más la ruta. También podemos elegir que en las rutas caminemos lo menos posible y por último que estén adaptadas para desplazarse en silla de ruedas. Por tanto, como veis, es bastante completa la información que nos ofrece Google Maps a la hora de viajar en transporte público, tanto que difícilmente se nos pasará de nuevo un transbordo en nuestra ruta.

    Fuente: Tecnoxplora

  • ¿Qué es el cryptojacking y por qué se ha convertido en uno de los ciberataques más habituales?

    ¿Qué es el cryptojacking y por qué se ha convertido en uno de los ciberataques más habituales?

    En primer lugar, vamos a ponernos en contexto. A principios de marzo de 2019, el valor del bitcoin superaba los 3.900 euros. La revalorización de este activo financiero, la mayor vista hasta el momento, ha conseguido que las criptomonedas sean consideradas como una divisa más.

    El anonimato que caracteriza a las transacciones de estas criptomonedas, sumado a una mejor defensa por parte de organismos y empresas frente a ataques de ransomware, ha propiciado el surgimiento de una nueva modalidad de robo virtual: el cryptojacking.

    Esta práctica consiste en el uso ilegítimo de un dispositivo electrónico, sin el consentimiento o conocimiento del usuario, por parte de cibercriminales que aprovechan la capacidad de procesamiento y de cálculo de la tarjeta gráfica, de la memoria y del procesador para realizar el proceso de obtención de criptomonedas y hacerse con el total de las ganancias.

    Los ciberdelincuentes recurren al uso de un malwareespecial, conocido como cryptominer, para entrar en equipos informáticos ajenos y robarles potencia. De esta manera, pueden ir cerrando bloques de forma mucho más rápida y, por tanto, reciben más criptomonedas como recompensa.

    La tendencia es que los cryptominers se vuelvan cada vez más sofisticados y afecten a más plataformas.

    La práctica fraudulenta del cryptojacking ha ido incrementándose en los últimos meses, dando lugar a importantes robos de criptomonedas alrededor del mundo. Uno de estos ataques tuvo lugar en enero de 2018. Coincheck, el mayor mercado de criptodivisas de Japón, sufrió el robo de 535 millones de dólares en NEM, una criptomoneda cuyo valor en la actualidad se encuentra en la vigésima posición. A día de hoy, si bien este tipo de robos ha ido incrementándose, no ha habido aún ninguno que haya logrado superarlo.

    Dada el crecimiento actual de los cryptominers, el ransomware, la mayor ciberamenaza de los últimos años, podría dejar de ser el principal malware. Los ciberdelincuentes han visto en esta nueva modalidad una vía para ganar dinero de forma más silenciosa, lo que les permite pasar desapercibidos y que sus campañas puedan durar más. La tendencia es, sin duda, que los cryptominers se vuelvan cada vez más sofisticados y afecten a más plataformas.

    Sin embargo, este malware no es especialmente dañino para el sistema informático por sí solo. El verdadero problema reside en que suelen venir acompañados de otro malware como troyanos, spyware o gusanos, los cuales sí pueden afectar gravemente a los equipos.

    • Cómo evitar estos ataques

    Hay diferentes maneras de saber si un equipo informático está siendo atacado por un cryptominer. El Centro Criptológico Nacional Computer Emergency Response Team (CCN-CERT) recomienda llevar a cabo una monitorización del uso de CPU y memoria del sistema, pues el uso elevado de recursos de un equipo es la característica más notable de que se está ejecutando un cryptominer. Concretamente, los sistemas suelen dar señales de algunos de los siguientes síntomas: lentitud, procesador cargado, sobrecalentamiento, alto consumo de energía y procesos no conocidos ejecutándose.

    De esta manera, llevando un control y monitorización del uso de recursos de nuestro equipo, se puede saber con suficiente antelación si está siendo utilizado para minar criptomonedas. De ser así el caso, hay una serie de soluciones para desinfectar el sistema, tales como desconectar el equipo de la red, analizarlo con un antivirus actualizado y con otras tecnologías antimalware, como Malwarebytes, o, en última instancia, formatear el sistema operativo y proceder a su reinstalación completa, para lo cual las guías CCN-STIC elaboradas por el CCN-CERT son de gran utilidad.

    Fuente_ EL País RETINA