Author: admin

  • Cantidad de dispositivos anunciados que soportan 5G

    Cantidad de dispositivos anunciados que soportan 5G

    La tecnología 5G se esta volviendo realidad en algunas partes del mundo y múltiples fabricantes de dispositivos han anunciaron nuevos aparatos con la capacidad de conectarse a 5G. Según datos de Hadden Telecom, se espera que se lancen alrededor de 36 dispositivos con acceso a 5G, fabricados por 20 compañias distintas. Cabe aclarar que algunos dispositivos pueden ser producidos en diferentes variantes según la banda de frecuencia soportada o personalización del operador, por lo tanto, puede que no estén disponibles en todos los mercados.

    Samsung es la empresa que mas celulares con acceso a 5G va a tener disponible con los modelos SM-G977 Galaxy S10 5G, Samsung Galaxy Fold 5G y Samsung Galaxy Note 10 5G. Pero Huawei es la compañia que má tipo de dispositivos va a lanzar con un celular, cuatro CPE y un módulo. El caso que resalta es de Apple que todavía no ha anunciado ningún lanzamiento de algún dispositivo con la capacidad de conectarse a la red 5G.

    DispositivosDispositivos que soportan 5GCantidadSmartphoneCPEMiFiModuleAccesorios051015Fuente: Hadden TelecomsMiFi 
    Por
    Juan Martino Perrotta
    Fuente: Telesemana
  • Seguridad escalable, flexible y automatizada para los despliegues IoT

    Seguridad escalable, flexible y automatizada para los despliegues IoT

    El 2018 marcó un punto de inflexión en las implementaciones de soluciones IoT por parte del sector corporativo. Las cifras de adopción de IoT hablan de miles de millones de dispositivos conectados, según datos de las principales consultoras. Esto supone también ampliar la superficie donde se pueden producir ciberataques.

    La madurez de las empresas que implementan soluciones de IoT les ha hecho entender que la seguridad IoT no puede ser un elemento secundario que emerge como reacción a un ataque, sino que debe desarrollarse como una de las primeras estrategias en el despliegue de sus soluciones IoT, a modo de prevenir y estar preparados.

    El reporte que sigue a continuación propone a los operadores soluciones concretas para que su red sea una plataforma unificada de ciberseguridad que utiliza los datos estadísticos, el aprendizaje automático y la automatización para mejorar su postura de seguridad y protegerse del crecimiento explosivo de los riesgos de IoT.

    Descubra cómo la solución de seguridad de IoT de Juniper, Software-Defined Secure Network, hace posible convertir la red de los operadores en un único dominio de aplicación generalizado que posibilita visibilidad, detección y corrección de amenazas en tiempo real.

    Fuente: Telesemana

  • EE.UU. recalcula para permitir a sus compañías vender tecnología a Huawei

    EE.UU. recalcula para permitir a sus compañías vender tecnología a Huawei

    De fondo parece sonar un GPS: recalculando. Todavía la ruta definitiva no está marcada, pero ya hay indicios que la que estimábamos un mes atrás, no será la indicada.

    Por ahora no hay ninguna decisión administrativa, ni de la Casa Blanca y del Departamento de Comercio, pero una frase parece cambiar todo: “vamos a seguir vendiendo esos productos”. La frase es del presidente de los Estados Unidos, Donald Trump en la conferencia de prensa del G20, luego de la reunión con su par chino, Xi Jinping.

    Consultado por el caso Huawei, el presidente Trump parece haberse dado cuenta del error de prohibir a las empresas estadounidenses comercializar con la compañía china y admitió que permitirá que se vendan productos a Huawei siempre que eso no signifique un problema para la seguridad nacional. El tema era una cuestión de suma importancia en la agenda de negociaciones comerciales con China.

    Trump parece haber tomado nota de que la última decisión de vetar a la compañía china era un boomerang que golpeaba más a Estados Unidos que a la china Huawei y hasta parece haber hecho una suerte de mea culpa en su discurso. “En algunos casos somos los únicos que tenemos la tecnología. Lo que hicimos en Silicon Valley es increíble. Y nadie ha podido competir con nosotros. Por eso acordé permitirles que puedan seguir vendiendo esos productos”, indicó el Presidente. Al mismo tiempo, advirtió que las compañías estadounidenses “no estaban justamente muy felices” de la decisión tomada anteriormentey por eso se decidió permitir que comercialicen con el gigante chino —hace un mes se calculaba que el costo de dejar de comercializar productos a Huawei era de 11.000 millones de dólares anuales—.

    Luego de esta declaración, el presidente del Consejo Nacional Económico, Larry Kudlow se ocupó de aclarar qué significa esta concesión de Trump, que tiene como objetivo conservar las ventas de las propias compañías norteamericanas pero no eliminar por completo el bloqueo a Huawei. Reuters indicó que la decisión comprende la venta de componentes a Huawei pero deja “el equipamiento mayormente sensible” fuera de la discusión. “Lo que ocurrirá es que el Comercio garantizará algunas licencias adicionales”, indicó Kudlow. La inclusión de Huawei en la lista negra del Departamento de Comercio se mantendrá. No obstante, Kudlow indicó que el acuerdo anunciado este finde semana “no es la última palabra”.

    Habrá que ver cómo se terminará implementando la medida y, particularmente, qué tipo de software, servicios y componentes involucrará. En principio, la marcha atrás parece ser una forma de evitar romper la cadena de suministro de la industria tecnológica y telecomunicaciones, y, fundamentalmente, proteger a las compañías norteamericanas como Google, Qualcomm e Intel de perder un importante comprador de tecnología. En la medida parece haber más un deseo de Estados Unidos de proteger su industria ante la amenaza de que sea reemplazada por jugadores europeos o asiáticos.

    Todavía restan nuevas negociaciones para terminar de entender cómo se terminará de configurar el nuevo escenario. Por ahora, Estados Unidos no parece querer ceder sobre la prohibición de que los operadores instalen en sus redes equipamiento de Huawei pero no tiene problema si las empresas estadounidenses tienen vínculos comerciales con la empresa china.

    La realidad es que para Huawei el golpe de tener que prescindir de parte de sus proveedores era importante, por lo que seguramente algún ejecutivo habrá festejado la decisión de Trump. La medida de mantener la prohibición para comercializar sus productos en los Estados Unidos es, no obstante, un golpe que no duele tanto ya que los Estados Unidos nunca fue uno de sus principales compradores.

    A Huawei le golpea más el escenario de incertidumbre que se cuela en otros mercados que sí representan un gran negocio para el fabricante, como Europa o Latinoamérica. Cabe recordar que en Europa se puso en marcha una iniciativa para garantizar la seguridad de las redes luego de la polémica sobre Huawei. En nuestra región, en cambio, la problemática parece tener efecto únicamente como comentario en los pasillos. Los operadores parecen seguir confiando en la compañía china y no tienen ningún problema en demostrarlo.

    Por
    Leticia Pautasio
    Fuente: Telesemana
  • La 5G promueve más compartición de red entre operadores

    La 5G promueve más compartición de red entre operadores

    No es el primer anuncio de este tipo y, seguramente, no será el último. Dos operadores japoneses, SoftBank y KDDI Corporation (KDDI), anunciaron haber alcanzado un acuerdo para un uso mutuo de sus estaciones bases para poder alcanzar un despliegue masivo de 5G.

    Es cierto que en el pasado los operadores móviles estuvieron compartiendo infraestructura, pero la mayor parte de ésta estaba acotada a los elementos pasivos, especialmente torres y sitios. Pero con la 5G esto parece estar cambiando y los operadores se animan a compartir otros elementos de la red con el objetivo puesto en evitar la duplicación, reducir los costos y, como en este caso, realizar un despliegue más rápido de la tecnología.

    El primer acuerdo de este tipo llegó de la mano de los españoles MásMóvil y Euskatel, que anunciaron pruebas para compartir red para reducir los costos de inversión en despliegue. Meses más tarde, el anuncio de compartición de infraestructura —que incluye elementos activos— fue realizado por TIM Italia y Vodafone. El mismo operador, Vodafone, también trabaja en un acuerdo similar con Orange en España y extendió recientemente otro con Telefónica (o2) para compartir infraestructura en el Reino Unido de cara a la futura red móvil.

    El caso de Japón resalta entre otros porque está focalizado especialmente en zonas rurales, dónde la 5G puede ser atractiva para el desarrollo de ciertos servicios, pero resulta extremadamente cara de desplegar, especialmente si utilizará porciones de espectro en bandas medias y altas.

    El problema es que, esta vez, los operadores no pueden pasar de largo de las zonas rurales ya que en estos espacios hay gran oportunidad de desarrollo para la tecnología móvil. Japón lo sabe y, por eso, lleva como bandera un proyecto de Sociedad 5.0. que permita aprovechar las ventajas de nuevas tecnologías como Internet de las Cosas (IoT), big data e inteligencia artificial (IA) para resolver tanto las problemáticas sociales cómo las que deriven de desastres naturales.

    Japón pone en la 5G el rol de ayudar a cumplir las metas nacionales, colaborar en aumentar la productividad al facilitar la captura y análisis de datos y hasta revitalizar las industrias nacionales, incluyendo las compañías locales y startups. Pero para que esto sea una realidad, es necesario que la red 5G tenga la mayor cobertura posible, lo más rápido posible.

    “Al utilizar las bandas de frecuencia de 28 GHz y 3,7 GHz, muchas estaciones bases serán instaladas a nivel nacional, lo que requiere una construcción a largo plazo y grandes compromisos de inversión”, señalaron en un comunicado conjunto KDDI y Softbank. En este sentido, una inversión en solitario tomaría más tiempo y sería más costosa.

    El acuerdo entre operadores japoneses establece que analizan la creación de una compañía conjunta para la administración de redes que tenga el objetivo de diseñar y gestionar el diseño de la construcción para aprovechar los activos de radiobases de ambas compañías.

    Como primera etapa los operadores establecerán una oficina preparatoria e intentarán determinar los procesos desde el diseño, a la construcción y administración de la red.

    Es decir, Softbank y KDDI se proponen conformar una especie de torrera pero que esté trabajando también con los elementos activos de la red. No es una idea novedosa, ya que el acuerdo entre Vodafone y TIM también parece ir por el mismo lado, al anunciar que evaluaban una combinación de sus torres en una única unidad de negocio, independiente de ambos operadores.

    Lo cierto es que todo parece indicar que en sitios dónde no hace falta diferenciarse en la red —o al menos en el equipamiento activo instalado—, los operadores prefieren moverse hacia sistemas compartidos que les permitan reducir los costos de despliegue. Por ahora, los primeros movimientos se ven en Europa y Asia pero no es de extrañar que se repitan también en América Latina.

    Por
    Leticia Pautasio

    Fuente: Telesemana

  • Google apuesta por la inteligencia artificial para resolver retos globales sobre salud y medioambiente

    Google apuesta por la inteligencia artificial para resolver retos globales sobre salud y medioambiente

    El gigante de Mountain View está trabajando para prevenir enfermedades y desastres naturales antes de que ocurran, todo gracias al machine learning.
    El gigante tecnológico Google está apostando por la inteligencia artificial (IA) para resolver problemas globales relacionados con la salud, la predicción de desastres naturales, la preservación cultural y medioambiental, y la agricultura.

    “Creemos que la IA puede ayudarnos a solucionar algunos de los retos sociales y medioambientales más difíciles de nuestros tiempos” aseguró hoy en Tokio el responsable del área de Inteligencia Artificial de la compañía, Jeff Dean.

    Gran parte del trabajo que realiza Google en este ámbito se centra en el aprendizaje automatizado, una rama de las ciencias de computación que tiene como objetivo proporcionar a los ordenadores la capacidad de aprender sin ser programados.

    Para ello se necesita un gran volumen de datos a través de los cuales se extraen reglas y patrones que posteriormente se aplican a un programa informático, con el objetivo de que este sea capaz de actuar cuando esté expuesto a nuevos datos.

    Se trata de una tecnología que permite eliminar o reducir el papel de los expertos en el análisis de datos, algo que la compañía considera necesario en algunas áreas científicas o lugares del mundo donde escasean especialistas.

    “Trabajamos con equipos de producto y organizaciones no gubernamentales para encontrar lugares donde poder aplicar esta tecnología, y estudiamos cuáles de las soluciones tendrán un impacto en el mundo y como podemos maximizar este impacto”, explicó Dean.

    Uno de los campos donde la IA de Google está siendo aplicada es el de la medicina, concretamente en la detección precoz de enfermedades como la diabetes o varios tipos de cáncer a través del análisis informático de radiografías y tacs.

    También se han beneficiado de esta tecnología organizaciones que luchan por la preservación del medio ambiente como Rainforest Connection, que utiliza la herramienta TensorFlow de Google para localizar sonidos emitidos por motosierras y camiones madereros en entornos forestales protegidos.

    Este programa se ha puesto en práctica para seguir la pista de las ballenas en aguas estadounidenses, gestionar los residuos que se acumulan en Indonesia, detectar las plagas que amenazan los cultivos en India o predecir inundaciones y sus efectos.

    Otros proyectos incluyen el desarrollo de modelos de reconocimiento de voz que reconocen el habla de personas discapacitadas, como es el caso de los invidentes o enfermos de Parkinson y ELA, o la transcripción de documentos antiguos en Japón.

    “Estamos comprobando como la IA puede beneficiar a la sociedad”, declaró el jefe de este área de Google, que este año ha presentado el programa “IA for Social Good”, una iniciativa que promete encarar los retos globales a través de la tecnología.

    Fuente: iProUP

  • Superando los retos de escalar los servicios de fibra óptica de siguiente generación

    Superando los retos de escalar los servicios de fibra óptica de siguiente generación

    La firma de investigación independiente Heavy Reading recientemente se asoció con Incognito Software, un proveedor de software independiente que se especializa en servicios de banda ancha y administración de dispositivos, para realizar una encuesta a proveedores globales de servicios de telecomunicaciones sobre los desafíos que enfrentan al escalar servicios basados en fibra. Los resultados de la encuesta, respondida por 150 ejecutivos principalmente en funciones de ingeniería de red, planificación de red y operaciones de red, se describen en el documento que sigue a continuación titulado “Superar los desafíos de escalar los servicios de fibra de próxima generación”.

    Este documento profundiza en los resultados de la primera investigación de la industria que describe el desarrollo de la fibra, la activación del servicio, las estrategias de gestión y migración de los operadores de telecomunicaciones globales. El informe también explora el impacto que tendrán los nuevos servicios basados en fibra en los sistemas BSS/OSS heredados, y los desafíos que enfrentan los operadores al implementar, escalar y migrar a la fibra.

    Fuente: Telesemana

  • Lo que hay que saber de un procesador

    Lo que hay que saber de un procesador

    ¿Alguna vez se han preguntado qué son los núcleos, frecuencia y memoria caché dentro de un procesador? y ¿Para qué me sirve saber estos datos al comprar un dispositivo electrónico?

    Hasta hace unos años el término procesador (CPU por sus siglas en inglés Central Processing Unit) solo estaba asociado a ordenadores como computadoras de escritorio o laptops; pero en la actualidad cualquier dispositivo inteligente como smartphones, tablets, smart TVs, consolas de videojuegos, autos y cualquier objeto electrónico programable que ejecute operaciones básicas y lógicas contienen un procesador en su interior.

    El CPU es el encargado de realizar el procesamiento de la información, así como ejecutar las instrucciones existentes en los dispositivos electrónicos. Aunque el término se utiliza desde principios de los años 60 en la industria de la informática, hoy en día es habitual ver esta información en aparadores y tiendas donde se venden equipos electrónicos.

    En el mercado existen numerosos fabricantes de procesadores como Intel, Qualcomm, AMD, Samsung, Huawei, por mencionar algunos. Todas estas marcas, independientemente del modelo y el fabricante, en sus especificaciones describen el número de núcleos “#. of CPU Cores”, número de hilos “# of Threads”, frecuencia de reloj y memoria caché.

    Desde sus inicios los primeros procesadores fueron diseñados con un núcleo “Core” el cual es simplemente un CPU dentro de un circuito integrado o chip.

    Físicamente, no es más que un encapsulado de silicio. Este único CPU se encarga de procesar y ejecutar todas las instrucciones y solo es capaz de realizar una tarea a la vez.

    Este proceso es llamado ciclo de instrucción y se puede resumir en: buscar, decodificar, ejecutar y escribir.

    Con el avance de la tecnología fueron evolucionando los procesos de fabricación y surgieron procesadores con dos núcleos encapsulados en el mismo chip funcionando totalmente independientes uno de otro, haciendo que los ordenadores mejoren notablemente el rendimiento y velocidad de procesamiento.

    Así que con un procesador de un núcleo puedes realizar una tarea a la vez como navegar en internet y con un procesador de dos núcleos podrás realizar dos tareas simultáneamente como navegar en internet y extraer un archivo.

    Dependiendo de la cantidad de núcleos, un procesador podrá ejecutar una mayor cantidad de tareas.  Actualmente podemos encontrar en el mercado procesadores de dos, tres, cuatro, ocho, doce, dieciséis y hasta treinta y dos núcleos.

    Dentro del campo de la informática, el término hilo o “thread” se refiere a la capacidad de un procesador para realizar varias tareas simultáneas.

    Los hilos ayudan al procesador a administrar cada una de las tareas que un CPU realiza. El núcleo realiza las tareas y los hilos las administran, los hilos en un procesador existen a nivel de software y dividen las tareas en segmentos, de modo que el CPU va alternando la ejecución de estos segmentos para que parezca que ambos se ejecutan al mismo tiempo.

    De este modo para el usuario parece como si el ordenador estuviera realizando diferentes tareas simultáneamente. Es importante no confundir los dos términos: hilos y núcleos que, aunque se relacionan en el funcionamiento del procesador, se diferencian en que los hilos son creados a nivel de software y el núcleo es el procesador físico.

    Frecuentemente podemos encontrar dos hilos por cada núcleo en un procesador, así que en procesadores de dos núcleos encontrarás cuatro hilos, en uno de cuatro núcleos habrá ocho hilos y así sucesivamente, pero esto no significa que haya el doble de procesadores.

    Por otra parte, algunos fabricantes hacen referencia al número de subprocesos que puede manejar el procesador para referirse al número de hilos.

    Determinar el rendimiento real de un procesador no es fácil ya que este valor depende principalmente de tres factores: Instrucciones por ciclo, frecuencia de reloj y compilador. De estos factores, el fabricante solo suele indicar la frecuencia de reloj, que aunque no determina el rendimiento neto si es un parámetro que podemos tomar en cuenta.

    La frecuencia de trabajo en un procesador está medida en hertz. Un hertz es simplemente el número de repeticiones de un suceso por unidad de tiempo.

    Todos los procesadores en su interior contiene un oscilador o “reloj” que genera un pulso eléctrico y cada repetición de pulso es un ciclo. Este reloj determina la velocidad de trabajo normal del CPU, por lo tanto, si un procesador marca 2.5KHz, 2.5MHz ó 2.5GHz el procesador trabaja a 2,500, 2.5 millones ó 2.5 billones de ciclos por segundo.

    Es importante conocer que si dos procesadores de diferentes tecnologías trabajan a la misma frecuencia no tendrán el mismo rendimiento, esto dependerá de los tres factores mencionados anteriormente.

    Otro parámetro que frecuentemente vemos en los procesadores es la memoria caché. Existen tre tipos de memoria caché dentro de un procesador: nivel 1 (L1), nivel 2 (L2) y nivel 3 (L3).

    Básicamente estas memorias reducen los procesos de lectura y escritura para que las aplicaciones funcionen más rápido. Cada una de ellas tienen diferentes tamaños y regularmente el valor que se muestra en las especificaciones, al hacer la compra de un dispositivo, es valor de la memoria nivel 3 que es la más grande y suele comprender entre 4 y 64MB.

    Antes de tomar una decisión en la compra o renovación de un dispositivo electrónico debemos tener bien claro cual va hacer el uso que le daremos, por ejemplo, para un usuario que solo necesita navegar en internet, trabajar con documentos de office, comprimir y descomprimir archivos, enviar correos electrónicos, descargar archivos, ver imágenes y reproducir audio y video; un procesador de dos núcleos, dos hilos, con 2 MB de caché y frecuencia base de 2.5 GHz cubre perfectamente estas necesidades, ya que la mayoría de estos programas no están diseñados para trabajar con procesadores de más de un núcleo.

    Esta es la razón por la que los usuarios muchas veces no ven diferencia en el rendimiento de sus equipos, aun teniendo procesadores de dos o más núcleos. Para un usuario más avanzado, que pretenda instalar videojuegos o programas para realizar edición de audio y video, un procesador de 4 núcleos con 8 hilos, 8 MB de caché y frecuencia de 2.5 o 3.0 GHz puede cumplir muy bien con estas necesidades.

    Por todo lo anterior, ahora tendremos una referencia más clara de lo que es un procesador y podremos entender sus datos técnicos básicos por lo tanto, cuando veamos modelos como Intel Core i3, i5, i7 o un AMD Rayzen 3,5,7 con toda seguridad entenderemos los valores asociados al procesador y poder elegir mejor el dispositivo que deseamos comprar pero debemos entender que aunque el procesador es parte muy importante en un dispositivo hay muchas otras características independientes al procesador que también se deben revisar.

    Si deseas conocer más para tomar una buena decisión a la hora de comprar, sigue pendiente de nuestras notas semanales.

    Fuente: La Jornada

  • Google quiere vacunarse contra el ‘efecto Facebook’

    Google quiere vacunarse contra el ‘efecto Facebook’

    El gigante online enfatiza el poder de los usuarios sobre sus datos para evitar el contagio de la crisis de credibilidad de las grandes tecnológicas. ¿Qué te ofrece hacer con tu información?

    Un cartel bien visible en la recepción de las oficinas de Google España advierte a los visitantes de que no pueden tomar fotos sin autorización y les insta a no compartir alegremente información sensible. Nota mental del periodista que acude a hacer un reportaje sobre la privacidad de los datos en el gigante de internet: la suya, eso seguro, se la toman en serio, y no solo en el mundo digital.

    Pero la sensación de empresa blindada y con un punto paranoica queda enseguida mitigada cuando el mismo periodista es conducido al pequeño despacho de la directora general en España, Fuencisla Clemares. “Como estamos constantemente reunidos, ahora mismo no tenemos una sala libre”, dice a modo de disculpa la responsable de comunicación. Allí, entre dibujos infantiles dedicados a la jefa, tan privados o más que cualquier búsqueda online, transcurrirá la entrevista con Greg Fair, directivo de Google a cargo de varios grupos de trabajo sobre privacidad y datos.

    Lleva trabajando en Google desde 2012, siempre alrededor de los datos de los usuarios, y también regatea la primera impresión: antes que ejecutivo global del gigante de internet fue músico –“canté ópera durante ocho años, y por eso hablo algo de italiano, pero lo dejé, en parte porque estaba harto de llegar peluca”-, y además era jugador “competente” de fútbol, si bien la ‘buena’ de la familia era su hermana Lorrie, campeona del mundo en 1999 y olímpica en Sídney 2000.

    Pero Fair no está en el despacho de Clemares para hablar de fútbol, sino de la estrategia de Google en el terreno de la privacidad, uno de los principales campos de batalla para las ‘big tech’ desde que el estallido del escándalo de Cambridge Analytica.

    ¿Está marcando este caso un antes y después en el uso que de los datos hacen las grandes compañías? Cuando Mark Zuckerberg va, nosotros ya estamos volviendo, parece decir Fair, que saca pecho de la trayectoria de Google: “Llevamos años en esto, y lo hacemos porque estamos convencidos de que es bueno para nuestro negocio. Lo importante es generar confianza. Si los usuarios no confían en Google, no usarán Google. Es así de sencillo”, explica.

    Sede de Google en Madrid

    Google cuenta con una división especializada en privacidad desde 2009, y acaba de inaugurar un centro especializado de Ingeniería de Seguridad en Múnich, donde investigarán a final de año 200 expertos específicos en la materia. Fair trabajó un año en la ciudad alemana, donde entre otras labores se ocupó de la adaptación de la compañía al nuevoReglamento Europeo de Protección de Datos (GDPR por sus siglas en inglés). “Es la regulación sobre privacidad más importante de la última década, y de alguna forma marca la referencia, el estándar de la discusión”.

    “Estamos absolutamente convencidos de que tenemos que trabajar con los reguladores en todos los asuntos de seguridad”, asegura Fair, pero, sin esperar a las normas, Google ofrece a sus usuarios un ‘hágalo usted mismo’ en cuanto a sus datos.

    El concepto de privacidad, aseguran en la multinacional, varía mucho no solo entre los diferentes países, sino entre individuos. “La privacidad está muy ligada a la seguridad, y hay gente que se siente segura con la puerta de su casa abierta y otros que quieren echar tres cerrojos”. Lo mejor es que cada uno decida. Así que Google presume de haber sido de las primeras grandes compañías que permite al usuario hacer su propia configuración de privacidad. Veinte millones de personas visitan diariamente Google Account, donde cada usuario decide qué comparte y qué borra. Y lo que se borra, desaparece de verdad, asegura Fair, que precisamente dirige el equipo de la empresa responsable de que los datos se eliminen en el tiempo y escala solicitados por cada usuario.

    Además de en la personalización de los datos, Google lleva un tiempo trabajando en su portabilidad. La idea es sencilla: si los datos son del usuario, las empresas deben ofrecerle la posibilidad de recopilarlos, descárgaselos y llevárselos a donde quiera, como determina la GDPR. “El usuario no puede sentirse atrapado, y es más probable que confíe en ti si sabe que puede llevarse sus datos dónde quiera y cómo quiera. Por eso llevamos años diseñado herramientas de portabilidad, junto a otras compañías, y ya tenemos unas 70”, dice con cierto orgullo Fair. Entre los socios de Google en este proyecto están Microsoft, Dropbox, Twitter y la propia Facebook.

    Pero, un momento: ¿no vive Google de los datos personales? A botepronto, el trabajo de Fair y otros muchos en Google podría asemejarse a empleados de Zara que recorriesen las tiendas diciendo a los clientes que, en realidad, esa camisa no les queda bien. “Somos una compañía de datos, no de datos personales. Nuestra labor es dar la información en un contexto, ordenada”, se defiende Fair. Ese contexto lo decide el usuario, pero, reconoce Fair, no es lo mismo ocho que ochenta. “Es un hecho que cuantos más datos tenga un sistema, más inteligente será el sistema. Y hay una expectativa de los usuarios. La cuestión es encontrar la cantidad correcta. ¿Cuánta personalización quieres? ¿Quieres decir a Google Maps que te lleve a ‘casa’ o prefieres teclear la dirección?”

    Aunque la gente no se levanta de la cama pensando en la importancia de sus datos personales, la sensación es que la barra libre se ha acabado. Por eso Sundar Pichai, CEO de Google, recalcaba en un reciente artículo en The New York Times que Google “nunca venderá información personal a terceros”, y que los datos que utilizan para personalizar la publicidad no salen de aplicaciones como Gmail o Google Docs. La sensibilidad ha cambiado, y ahora se maneja el concepto de “minimización de datos”: cómo lograr información cada vez más útil, precisa y personalizada sin recoger todo tipo de datos, sino solo los realmente necesarios. La confianza de los consumidores en los proveedores tecnológicos no es un recurso infinito, y los gigantes ya actúan en consecuencia.

    Fuente: El País Retina

  • Wereque, la planta mexicana que podría acabar con el cáncer

    Wereque, la planta mexicana que podría acabar con el cáncer

    El mexicano Max Vidal Gutiérrez, estudiante de doctorado en la Universidade Estadual Paulista, en Brasil, desarrolla dos fitofármacos con la planta Ibervillea sonorae, mejor conocida como wereque o guareque, que gracias a su actividad antitumoral podría covertirse en una opción eficaz en el tratamiento del cáncer.

    Esta planta es popular en el norte del país, principalmente en Sonora y Sinaloa, en donde ha sido usada tradicionalmente por las comunidades Mayo, Opata, Seri y Yaqui para tratar padecimientos de la piel.

    Vidal Gutiérrez, quien es egresado de Universidad de Sonora (Unison), explicó que su investigación comenzó luego de conocer los resultados obtenidos por el docente Heriberto Torres Moreno, sobre moléculas presentes en la raíz de la planta con potencial actividad antitumoral, las cuales pueden ser utilizadas como marcadores en la elaboración de fitofármacos.

    Detalló que hay dos etapas de gran importancia en el desarrollo de un fitofármaco: la parte química y la biológica, y que el proyecto comprende la integración de estas dos etapas haciendo uso de herramientas de química analítica, como: HPLC, espectrometría de masas y resonancia magnética nuclear.

    Además, reiteró, fueron estudiados los perfiles fitoquímicos de los fitofármacos previamente diseñados para su uso en la investigación contra el cáncer.

    Más adelante, cuando se realicen los estudios biológicos, se hará uso de modelos in vitro e in vivo de cáncer, para determinar la actividad antitumoral de estos dos fitofármacos, subrayó.

    Las etapas química y biológica de esta investigación se encuentran respaldadas por los prestigiados investigadores Wagner Vilegas, de la Universidade Estadual Paulista y Ramón E. Robles Zepeda, de la Universidad de Sonora, resaltó Vidal Gutiérrez durante una presentación que ofreció en el marco del Seminario del Departamento de Ciencias Químico Biológicas y Agropecuarias, de la Unison, unidad Caborca.

    Impulsan vocaciones científicas

    wereque fullHeriberto Torres Moreno, Julio César López Romero y Efraín Lugo Sepúlveda, docentes del campus Caborca y coordinadores del seminario, coincidieron que uno de los objetivos de esta actividad es estimular a los estudiantes de licenciatura a participar en proyectos de investigación.

    “Se pretende divulgar la existencia de otras áreas de estudio donde puedan aplicar los conocimientos obtenidos en la carrera, pero sobretodo dejar claro que el programa de licenciatura en el que se encuentran, les dará las herramientas necesarias para poder realizar una carrera en el área de la investigación”, indicó Torres Moreno.

    Los egresados poseen los conocimientos necesarios para cursar posgrados en áreas como Materiales, química, química orgánica, bioquímica, ciencias químico biológicas, ciencias de la salud y ciencias farmacéuticas, entre otras, agregó.

    Explicó también que en el departamento de Ciencias Químico Biológicas y Agropecuarias del campus Caborca se están desarrollando proyectos en conjunto con la Universidade Estadual Paulista, trabajo colaborativo que ha permitido la obtención de buenos resultados y la integración de estudiantes y profesores a estos proyectos.

    “Queda siempre la invitación de nuestros docentes a participar en los proyectos de investigación, así como también a continuar asistiendo a nuestras sesiones semanales del Seminario”, concluyó.

    Esta obra cuyo autor es Ciencia MX está bajo una licencia de Reconocimiento 4.0 Internacional de Creative Commons.

  • La ciencia del CERN en tu vida cotidiana

    La ciencia del CERN en tu vida cotidiana

    La ciencia aplicada en la vida cotidiana ha generado desarrollos tecnológicos deslumbrantes, así lo demuestra la Organización Europea para la Investigación Nuclear (CERN, por sus siglas en francés), donde al estudiar el origen de universo, también generó conocimiento que llevó al desarrollo de tecnología que hoy en día tiene importantes aplicaciones en los campos de la salud y las telecomunicaciones.

    confinterlhc full

    Por ejemplo, las pantallas táctiles que actualmente ocupamos en los dispositivos móviles, la World Wide Web (WWW), la PET (tomografía de emisión de positrones) y la radiografía a color, son algunas de las principales contribuciones tecnológicas que ha realizado el CERN.

     

    Así lo subrayó Gerardo Herrera Corral, científico del Centro de Investigación y de Estudios Avanzados (Cinvestav), durante su charla “El Gran Colisionador de Hadrones y sus aplicaciones”, que impartió en el Complejo Cultural Universitario (CCU), de la Benemérita Universidad Autónoma de Puebla (BUAP).

    Dicha plática fue parte de las actividades de divulgación que se realizan como parte de la Séptima Conferencia Internacional de Física del Gran Colisionador de Hadrones (LHC) que reúne a más de 400 científicos de todo el mundo.

    Ante un público diverso que incluyo desde niños hasta personas de la tercera edad, el Herrera Corral explicó en 60 minutos lo que los científicos estudian en el LHC, por qué es importante y fascinante estudiar el origen del universo y las aplicaciones que actualmente tienen algunos de los desarrollos tecnológicos que realizaron primero con el objetivo de realizar sus estudios.

    PET

    En 1977 la física Marilena Bianchi realizó una estancia sabática en el laboratorio de la radiobióloga del CERN, con una solicitud inusual. Pidió su ayuda para crear la primera imagen de un ratón con una cámara PET.

    confinterlhc 01

    Los físicos del CERN que la ayudaron fueron David Townsend y Alan Jeavons, este último había desarrollado un nuevo detector, basado en una cámara de alta densidad, y Townsend había desarrollado el software para reconstruir los datos del detector y convertirlos en una imagen.

    Una vez que estuvieron listos, Townsend le pidió a Bianchi, quien estaba desarrollando aplicaciones médicas de tecnologías CERN, que inyectara un ratón con una pequeña cantidad de radioisótopo de corta duración, que fue absorbido por el esqueleto del animal.

    El isótopo que inyectó emitió positrones. Estos positrones chocaron con electrones y en la colisión se crearon un par de fotones. Los fotones salieron en direcciones exactamente opuestas.

    Al colocar dos detectores alrededor del ratón, Jeavons y Townsend recogieron estos pares de fotones, señalando dónde ocurrieron las aniquilaciones de positrones. Días después, David Townsend tenía el primer escaneo de ratón realizado con una cámara PET.

    Si bien el PET no se inventó en el CERN, pero el trabajo realizado por los científicos del CERN Jeavons y Townsend hizo una importante contribución a su desarrollo, explicó Herrera Corral en su charla.

    Pantallas táctiles

    confinterlhc 02

    El CERN ha contribuido a lo largo de sus historia a la creación de diversos desarrollos tecnológicos que hoy son indispensables en la vida diaria del ser humano, pero la mayoría de las veces no se sabe que tuvieron su origen en el laboratorio más grande del mundo ubicado en Ginebra, Suiza, subrayó el científico mexicano.

    “Las pantallas que ahora todo mundo usa en sus celulares se desarrollaron en el CERN y poca gente los sabe. Las pantallas táctiles se desarrollaron a partir de la creación del detector SPS, que es el proyecto anterior al Gran Colisionador de Hadrones”.

    Esto fue gracias a que uno de los miles de físicos que ahí colaboraban quiso simplificar la manera de monitorear en pantallas todas las operaciones del detector, entonces se le ocurrió hacer una pantalla transparente.

    WWW

    Otra de las grandes aportaciones que ha realizado el CERN es World Wide Web (WWW), que hoy en día permite conectarnos y compartir información en cualquier parte del mundo.

    En 1989, el científico británico Tim Berners Lee inventó la World Wide Web, mientras trabajaba en el CERN. La red fue concebida y desarrollada originalmente para satisfacer la demanda de intercambio automático de información entre científicos de universidades e institutos de todo el mundo.

    Fue tan sólo cuatro años después, cuando en 1993 el CERN puso el software World Wide Web para el dominio público y hoy todo mundo puede navegar a través del triple w.

    Radiografía a color

    confinterlhc 03

    Una de las más recientes aportaciones del CERN es la radiografía a color, que si bien la desarrolló una compañía de Nueva Zelanda, este avance tecnológico es gracias a un chip desarrollado en el CERN.

    Esta nueva tecnología llamada “Spectral CT”, hace que el sensor mida la atenuación de las longitudes de onda específicas de los rayos X en la medida que pasan por los diferentes materiales, huesos, grasas, tejidos, etcétera.

    Los datos generados se corren a través de algoritmos específicos y entonces se genera una imagen 3D que claramente muestra músculo, hueso, agua y grasa, entre otras cosas.

    Por estas innovaciones y otras que mejoran la calidad de vida de los seres humanos y que se desarrollan a partir de la ciencia básica, es que se debe aportar la ciencia, señaló el especialista en física de partículas.

    Por• Doctor Gerardo Herrera Corral

    Es investigador del Departamento de Física del Cinvestav. Él encabeza el grupo científicos mexicanos en el Gran Colisionador de Hadrones (LHC), el experimento en física de partículas más ambicioso y complejo de la historia. El doctor Herrera ha centrado sus investigaciones en el estudio de la producción y decaimiento de quarks pesados y otras áreas de la física de partículas.

    Fuente: Ciencia MX