CineTIC: A good American

Seguimos en nuestra sección CineTIC (fichas de películas y series  de ciencia ficción en los que aparecen tecnologías que son tendencia) es el turno de A good American (2015), un film en que el tratamiento de datos (Big Data) juega un papel destacado. ¿Se hubiera podido evitar el 11-S?

FICHA TÉCNICA:

  • Título original: A Good American
  • Año: 2015
  • Duración: 100 minutos
  • País: Estados Unidos
  • Director: Friedrich Moser
  • Guión: Friedich Moser
  • Música: Christopher Slaski, Guy Farley
  • Fotografía: Matthew J. Lloyd
  • Reparto: Documentary
  • Productora: Blue+Green Communication
  • Género: Documental | EspionajeTerrorismoPolíticaDocumental sobre Historia
  • Web oficial: http://agoodamerican.org/
  • Sinopsis: Tras el final de la Guerra Fría, el mejor descifrador de códigos que jamás haya tenido Estados Unidos, junto con un pequeño equipo de la NSA (Agencia de Seguridad Nacional), comienza a desarrollar un revolucionario programa de vigilancia. Éste es capaz de recoger cualquier señal electrónica del mundo, filtrarla por objetivos, proporcionar resultados en tiempo real y todo ello sin invadir la privacidad. El programa es perfecto, excepto por un detalle: es demasiado barato. De ahí que la dirección de la NSA, deseosa de recaudar impuestos, decida abandonar el programa (justo tres semanas antes del 11-S).Después del ataque, cuando la NSA empieza a vigilar en masa a los americanos, el descifrador de códigos abandona la agencia. Un amigo toma el mando y se encarga de reavivar el programa a principios de 2002, para una prueba en contraste con la mayor recopilación de información de la NSA, basada en los datos conocidos antes del 11-S. Tan pronto como pone en marcha el programa, los terroristas aparecen al instante en la pantalla del ordenador. La respuesta de la NSA es parar por completo el programa. Esta es la historia de Bill Binney, un programa llamado ThinThread y cómo la alternativa perfecta para la vigilancia de masas fue descartada por la NSA por dinero.

    ‘A Good American’ cuenta una de las historias más importantes de la sociedad de la información y disecciona el funcionamiento interno y los lazos de una red político-económica cuya magnitud se extiende más allá de América.

Fuente: http://www.filmaffinity.com

Tendencias TIC que aparecen en la película:

Big Data: Según WikipediaBig datamacrodatos o datos masivos es un concepto que hace referencia al almacenamiento de grandes cantidades de datos y a los procedimientos usados para encontrar patrones repetitivos dentro de esos datos. El fenómeno del big data también se denomina a veces datos a gran escala. En los textos científicos en español con frecuencia se usa directamente el término en inglés big data, tal como aparece en el ensayo seminal de Viktor Schönberger big data: La revolución de los datos masivos.

La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos. Las dificultades más habituales vinculadas a la gestión de estas cantidades de datos se centran en la recolección y el almacenamiento, búsqueda, compartición, análisis, y visualización. La tendencia a manipular enormes cantidades de datos se debe a la necesidad en muchos casos de incluir dicha información para la creación de informes estadísticos y modelos predictivos utilizados en diversas materias, como los análisis de negocio, publicitarios, los datos de enfermedades infecciosas, el espionaje y seguimiento a la población o la lucha contra el crimen organizado.

El límite superior de procesamiento ha ido creciendo a lo largo de los años. De esta forma, los límites fijados en 2008 rondaban el orden de petabytes a zettabytes de datos. Los científicos con cierta regularidad encuentran limites en el análisis debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica, la conectómica, las complejas simulaciones de procesos físicos y las investigaciones relacionadas con los procesos biológicos y ambientales, Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas finanzas y a la informática de negocios. Los data sets crecen en volumen debido en parte a la recolección masiva de información procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANETs), del constante crecimiento de los históricos de aplicaciones (por ejemplo de los logs), cámaras (sistemas de teledetección), micrófonos, lectores de radio-frequency identification. La capacidad tecnológica per-cápita a nivel mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años ochenta. Se estima que en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de datos (del inglés quintillion, 2.5×1018)

Minería de datos: Según Wikipedia  la minería de datos o exploración de datos (es la etapa de análisis de “Knowledge Discovery in Databases” o KDD) es un campo de la estadística y las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. Utiliza los métodos de la inteligencia artificialaprendizaje automáticoestadística y sistemas de bases de datos. El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior. Además de la etapa de análisis en bruto, que involucra aspectos de bases de datos y de gestión de datos, de procesamiento de datos, del modelo y de las consideraciones de inferencia, de métricas de Intereses, de consideraciones de la Teoría de la complejidad computacional, de post-procesamiento de las estructuras descubiertas, de la visualización y de la actualización en línea.

El término es una palabra de moda, y es frecuentemente mal utilizado para referirse a cualquier forma de datos a gran escala o procesamiento de la información (recolección, extracción, almacenamiento, análisis y estadísticas), pero también se ha generalizado a cualquier tipo de sistema de apoyo informático decisión, incluyendo la inteligencia artificial, aprendizaje automático y la inteligencia empresarial. En el uso de la palabra, el término clave es el descubrimiento, comúnmente se define como “la detección de algo nuevo”. Incluso el popular libro “La minería de datos: sistema de prácticas herramientas de aprendizaje y técnicas con Java” (que cubre todo el material de aprendizaje automático) originalmente iba a ser llamado simplemente “la máquina de aprendizaje práctico”, y el término “minería de datos” se añadió por razones de marketing. A menudo, los términos más generales “(gran escala) el análisis de datos”, o “análisis” -. o cuando se refiere a los métodos actuales, la inteligencia artificial y aprendizaje automático, son más apropiados.

La tarea de minería de datos real es el análisis automático o semi-automático de grandes cantidades de datos para extraer patrones interesantes hasta ahora desconocidos, como los grupos de registros de datos (análisis clúster), registros poco usuales (la detección de anomalías) y dependencias (minería por reglas de asociación). Esto generalmente implica el uso de técnicas de bases de datos como los índices espaciales. Estos patrones pueden entonces ser vistos como una especie de resumen de los datos de entrada, y pueden ser utilizados en el análisis adicional o, por ejemplo, en la máquina de aprendizaje y análisis predictivo. Por ejemplo, el paso de minería de datos podría identificar varios grupos en los datos, que luego pueden ser utilizados para obtener resultados más precisos de predicción por un sistema de soporte de decisiones. Ni la recolección de datos, preparación de datos, ni la interpretación de los resultados y la información son parte de la etapa de minería de datos, pero que pertenecen a todo el proceso KDD como pasos adicionales.

Critpoanálisis: Según Wikipedia es la parte de la criptología que se dedica al estudio de sistemas criptográficos con el fin de encontrar debilidades en los sistemas y romper su seguridad sin el conocimiento de información secreta. En el lenguaje no técnico, se conoce esta práctica como romper o forzar el código, aunque esta expresión tiene un significado específico dentro del argot técnico. A las personas que se dedican al criptoanálisis se llaman criptoanalistas.

Los métodos y técnicas del criptoanálisis han cambiado drásticamente a través de la historia de la criptografía, adaptándose a una creciente complejidad criptográfica. Los sistemas criptográficos han evolucionado desde los métodos de lápiz y papel del pasado, pasando por máquinas como Enigma -utilizada por los nazis durante la Segunda Guerra Mundial-, hasta llegar a los sistemas basados en computadoras del presente. Al aumentar la potencia de cálculo de los sistemas criptográficos, también los esquemas criptográficos han ido haciéndose más complejos. A mediados de los años 1970 se inventó una nueva clase de criptografía: la criptografía asimétrica. Los métodos utilizados para romper estos sistemas son por lo general radicalmente diferentes de los anteriores, y usualmente implican resolver un problema cuidadosamente construido en el dominio de la matemática pura. El ejemplo más conocido es la factorización de enteros.

Los resultados del criptoanálisis han cambiado también: ya no es posible tener un éxito ilimitado al romper un código, y existe una clasificación jerárquica de lo que constituye un ataque en la práctica.

La técnica del criptoanálisis se basa en buscar errores o algún error en el sistema para penetrarlo y hacer daños.

Algunas reflexiones:

¿Pensáis que los Gobiernos, al igual que las empresas privadas, aplican el Big Data para mejorar la gestión pública de los ciudadanos? ¿ Dónde está el límite entre nuestra privacidad y los datos que hacemos públicos? ¿ La amenaza del terrorismo puede llegar a justificarlo todo a la hora de recopilar datos?

¿Qué aplicaciones se os ocurren en vuestra vida personal/negocio para el Big Data/ Minería de Datos? ¿Estáis aplicando alguna?

¿Incorporarán las empresas la figura del Data Scientist en su equipo?

Para saber más: 

ThinThread descripción del programa desarrollado por Binney de la Wikipedia.

ThinThread, el programa secreto que podría haber evitado los atentados del 11S, artículo de La Vanguardia sobre el documental.

“A Good American”: “¿Y si el 11S pudiera haberse evitado? Artículo de El Diario.es sobre el testimonio de Binney.

A Good American Ficha y comentarios del film de la base de datos especializada en cine http://www.imdb.com

 

Acerca de Dr.TIC

Servei d'assessorament tecnològic per a empreses que volen obtenir una visió general del grau d'ús de les TIC al seu negoci i millorar la seva salut TIC.
Esta entrada fue publicada en Big Data, CineTIC, TenTIC. Guarda el enlace permanente.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Spam protection by WP Captcha-Free