Universidad de Castilla-La Mancha
 
Escuela Superior de Ingeniería Informática

 

  cambiar a curso:   2012-13   2014-15



Trabajo Fin de Grado 2013-14
 Adaptación de algoritmos de codificación de vídeo al paradigma MapReduce para su ejecución en un cloud


Especialidades
Ing. de Computadores
Tecnologías de la Información


Tutor
MARTINEZ MARTINEZ, JOSE LUIS
CONEJERO BAÑON, FRANCISCO JAVIER


Descripción y Objetivos

El gran aumento de los contenidos multimedia que son generados y consumidos por la sociedad actual, hacen necesario el uso de un tratamiento adecuado de este flujo de información. Los codificadores de vídeo son una herramienta necesaria para reducir este flujo de datos, haciéndolo más manejable y a la vez, intentando perder el mínimo de calidad posible.

El estándar H.264, también conocido como MPEG-4 parte 10, es la solución de codificación más expandida actualmente, aunque se están desarrollando y probando otros estándares que vendrán a ser los sucesores de este último, como el H.265 o HEVC.

Por otro lado, la existencia de estos grandes flujos de datos, que provienen de la globalización y la expansión de Internet alrededor del mundo, ha desembocado en el desarrollo de paradigmas centrados en optimizar el tratamiento de esta información. Este es el caso de MapReduce, que ha sido desarrollado con la idea de dar soporte a la computación paralela sobre grandes colecciones de datos.

Las tecnologías actuales de tratamiento de cantidades ingentes de información, conocidas como Big Data, pueden resultar realmente útiles para solventar los inconvenientes anteriormente descritos. Para ello, la idea es no usar equipos de alta potencia sino realizar las mismas tareas con cientos de equipos de prestaciones más básicas, y por consiguiente, mucho más económicos. Así no solo se solventa el tema económico, también el inconveniente de escalabilidad, pues adquirir equipos de prestaciones inferiores es más fácil. Además, existen empresas tales como Amazon o Google que ofrecen servicios de este tipo.

El escenario anterior nos lo ofrecen las tecnologías basadas en la computación en la nube (Cloud Computing), concretamente tecnologías que implementan el paradigma MapReduce, que serán examinadas más en detalle en apartados posteriores de este documento.

Como los codificadores de vídeo son aplicaciones software que necesitan una gran cantidad de recursos y trabajan sobre archivos de tamaño considerable, surge la idea de intentar aprovechar la capacidad que ofrece MapReduce para acelerar el proceso de codificación.

En este Trabajo de Fin de Grado se llevará a cabo un estudio de los distintos frameworksque dan soporte a MapReduce así como de los codificadores H.264 y H.265, con el objetivo de desarrollar una aplicación que sea capaz de valerse de la computación en paralelo para acelerar el proceso de codificación de vídeo.

Además del desarrollo de dicha aplicación, se realizarán pruebas de rendimiento sobre el producto desarrollado, obteniendo unos resultados con respecto a la aceleración del proceso de codificación.

Objetivos:

·        Investigar sobre el funcionamiento del paradigmaMapReduce y las características de los frameworks más comunes que lo implementan.

·        Realizar un estudio sobre el funcionamiento del video digital y los estándares de codificación más comunes.

·        Realizar un estado del arte de las diferentes alternativas que se han implementado para llevar el tratamiento de archivos multimedia a la nube.

·        Desarrollar una aplicación basándose en uno de losframeworks MapReduce que sea capaz de codificar un video con los estándares investigados.

·        Realizar un estudio sobre los resultados obtenidos al codificar vídeos bajo el paradigma MapReduce.

 




Metodología y Competencias
Para alcanzar los objetivos planteados para este Trabajo Fin de Grado, se realizará una metodología que consta de tres fases: fase de análisis, fase de desarrollo y fase de evaluación de prestaciones.

En la fase de análisis se llevará a cabo un estudio de los diferentes aspectos teóricos necesarios para la realización del proyecto. Se divide en tres subfases: estudio de Cloud Computing, estudio del paradigma MapReduce y estudio de los codificadores de vídeo H.264 y H.265.

La fase de desarrollo se basa en el desarrollo de una aplicación que siga el paradigma MapReduce y sea capaz de implementar los codificadores H.264 y H.265. Se divide en dos subfases: configuración del entorno de desarrollo y desarrollo de la aplicación.

Por último, la fase de evaluación de prestaciones tiene como objetivo poner en funcionamiento la aplicación desarrollada en la fase anterior y realizar un estudio comparativo de los resultados obtenidos. Esta fase consta de dos subfases: configuración del entorno de pruebas y evaluación de las pruebas obtenidas.
 


Medios a utilizar
Todo el equipamiento necesario está disponible en el grupo de investigación RAAP del Instituto de Investigación en Informática (I3A)


Bibliografía
¿Qué es realmente el cloud computing?http://www.desarrolloweb.com/articulos/que-es-cloud-computing.html
 
¿Qué es Cloud Computing? http://cloud-america.com/?page_id=257

The Disco Project http://discoproject.org/
 
Mapreduce Bash Script http://blog.last.fm/2009/04/06/mapreduce-bash-script
 
Repositorio Git de BashReduce https://github.com/erikfrey/bashreduce
 
Storm Project http://storm-project.net
 
A Storm is coming: more details and plans for release [Consultada el 24/3/2013] https://blog.twitter.com/2011/storm-coming-more-details-and-plans-release
 
What is MapReduce? [Consultada el 11/5/2013] http://www-01.ibm.com/software/data/infosphere/hadoop/mapreduce/  
 
Big Data [Consultada el 11/5/2013] http://es.wikipedia.org/wiki/Big_data
 
Apache Hadoop Project [Consultada el 8/5/2013] http://hadoop.apache.org/ 
 
Understanding Hadoop Ecosystem [Consultada el 8/5/2013] http://docs.hortonworks.com/Hadoop
 
Hadoop Distributed File System (HDFS) [Consultada el 8/5/2013] http://hadoopguru.blogspot.com.es/2013/02/hadoop-distributed-file-system-hdfs.html
 
Introducción a los espacios de color y su relación con la compresión de video [Consultada el 1/6/2013] http://www.videoedicion.org/documentacion/article/introduccion-a-los-espacios-de-color-y-su-relacion-con-la-compresion-de-video
 
La compresión del vídeo digital [Consultada el 1/6/2013] http://www.videoedicion.org/documentacion/article/printer/la-compresion-del-video-digital
 
Hadoop Taiwan User Group 2012  [Consultada el 07/6/2013] http://www.hadoop.tw/2012/08/hadoop-in-taiwan-2012-1.html
 
Hadoop in Taiwan 2012 - Mohohan: An on-line video transcoding service via Hadoop [Consultada el 07/6/2013] http://www.youtube.com/watch?v=1lxE9ZB_LEE
 
Keith Wiley: Astronomical Image Processing with Hadoop [Consultada el 23/5/2013] http://escience.washington.edu/get-help-now/astronomical-image-processing-hadoop
 
Hadoop [Consultada el 21/6/2013] http://es.wikipedia.org/wiki/Hadoop
 
Assembla, repositorio online [Consultada el 3/1/2013] https://www.assembla.com/home
 
JM Software, H.264/AVC Software Coordination [Consultada el 20/1/2013] http://iphome.hhi.de/suehring/tml/
 
HEVC project, High Efficiency Video Coding [Consultada el 4/2/2013]http://hevc.hhi.fraunhofer.de/
 
Video Trace Library [Consultada el 18/1/2013]http://trace.eas.asu.edu/index.html
 
Java library to read and write yuv 4:2:0 file [Consultada el 19/1/2013] https://code.google.com/p/java-yuv/

How many photos have ever been taken? [Consultada el 28/6/2013] http://blog.1000memories.com/94-number-of-photos-ever-taken-digital-and-analog-in-shoebox
 
El fenómeno YouTube: siete años y 60 horas de vídeo subidas cada minuto [Consultada el 28/6/2013] http://www.rtve.es/noticias/20120423/fenomeno-youtube-siete-anos-60-horas-video-subidas-cada-minuto/517997.shtml
 
The Big Data Boom Is the Innovation Story of Our Time [Consultada el 28/6/2013] http://www.theatlantic.com/business/archive/2011/11/the-big-data-boom-is-the-innovation-story-of-our-time/248215/

High Efficiency Video Coding, [Consultada el 29/6/2013] http://en.wikipedia.org/wiki/High_Efficiency_Video_Coding

HEVC - High Efficiency Video Coding, [Consultada el 29/6/2013] http://www.hhi.fraunhofer.de/de/kompetenzfelder/image-processing/research-groups/image-video-coding/high-efficiency-video-coding.html

El nuevo vídeo estándar HEVC, [Consultada el 29/6/2013] http://infophone.es/apple/el-nuevo-video-estandar-hevc-h-265-doble-video-compresion-de-sus-predecesores/
 


Asignación
El Trabajo Fin de Grado ha sido a asignado a Don/Doña SERGIO FERNANDEZ MARTINEZ





 

Sindicación  Sindicación  Sindicación  Sindicación

Curso: 2013-14
© Escuela Superior de Ingeniería Informática
Edificio Infante Don Juan Manuel
Avda. de España s/n
02071 Albacete

informatica.ab@uclm.es
aviso legal
generar código QR de la página