Advanced search


Knowledge area




29 results, page 1 of 3

Error concealment method for HEVC based on motion vector redundancy

Domingo Guzman (2018)

Several video compression standards have been produced with the aim of reducing transmission bit rates without decreasing the video quality. The High Effciency Video Coding (HEVC) standard, developed by the Joint Collaborative Team on Video Coding (JCT-VC), is characterized by delivering improved coding efficiency relative to previous standards, such as H.264/AVC. HEVC provides improved compression ratios mainly for High Definition (HD) and Ultra High Definition (UHD) video, however, such gains are associated with high increases in computational complexity and therefore long processing times. Due to the characteristics of the HEVC design, it is shown that the temporal and spatial dependency of motion information is higher than in the H.264/AVC standard, producing a lack of robustness against the loss of information caused by transmission errors or data losses in storage. Based on the above, current error concealment methods might not be prepared to work with these new features. This work addresses the development of an Error Concealment (EC) method for improving the resilience of the HEVC standard, backing up a set of intra coded Coding Units (CUs), including its corresponding motion information and partitioning. CUs are selected by choosing quad-tree structures and PU shapes with lower partitioning depth, because losing larger structures represent a signi_cant degradation of the visual quality, and then transmitted as redundancy. Redundant information is embedded in a reversible way introducing no visible distortion within Discrete Cosine Transform (DCT) coefficients. A lost CU could be restored using the backup structure and motion information at the decoding stage or could be restored through a generic structure choosing between neighboring candidates through the use of the Outer Boundary Matching Algorithm (OBMA), in situations where the coding unit and its backup information gets lost. Simulations show that the proposed method can efficiently restore lost CUs using redundant motion information, improving error resilience up to 3 dB in Peak

Signal-to-Noise Ratio (PSNR) and quality when compared to the related proposal in state of the art at the frame level, and up to 4 dB compared to the original HEVC standard without redundant embedded information.

Master thesis

HEVC Error concealment Coding unit Motion vector Inter coding CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES DISPOSITIVOS DE CONTROL

Importancia del análisis de fase en estaciones de medición de gas

FERNANDO ELISEO SOLARES ZAVALA María Yaneth Díaz García Gerardo Ortega Montiel (2017)

Este artículo busca enfatizar la importancia del análisis de fase como un indicador para la correcta medición de hidrocarburos en fase gaseosa. Se muestran las repercusiones que puede tener el desconocimiento de la presencia de líquidos en una corriente de gas y los errores que pueden generarse en la medición del mismo; considerando que dichos condensados se derivan de las condiciones a las que es sometido el gas (presión y temperatura), así como las consecuencias económicas que esto acarrea para el usuario final.

Conference proceedings

Diagrama de fase Medición Gas húmedo Estándar Error Condensado Lineamientos INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA ENERGÉTICA ENERGÍA

Error concealment method based on data hiding for HEVC

FRANCISCO JAVIER AGUIRRE RAMOS (2013)

New video technologies emerge every day, current and new video applications require

of efficient compression methods. Until now, the majority of video content designed for

transmission over the internet was coded using the H.264/AVC video coding standard;

nevertheless, the H.264/AVC gets overtaken by the increasing compression requirements

of some cutting-edge video applications. In the last few years the International Telecom-

munications Union (ITU) has been working in the development of the new video coding

standard: High Efficiency Video Coding (HEVC). This standard is designed to provide

solution to the new High Definition and Ultra-High definition applications.

The HEVC represents a cornerstone in the history of video coding standards, introducing new tools and techniques never seen in a coding standard before. It is predicted

that the new codec will revolutionize the mobile and home-oriented applications; some

other applications such as telemedicine will also be benefited from the increased com-

pression efficiency provided by HEVC.

Most of the new applications will require of error concealment methods to deal will

losses caused by transmissions over error prone environments or data losses in storage.

The current error concealment methods might not be prepared to work with HEVC

due to the new existing features in its design.

This research has as aim the development of an error concealment method based

on data hiding, capable of providing error concealment to the new emerging video applications. It is specifically designed to _t with the new features in HEVC and take

advantage of them. To achieve this, the new quad-tree structure of each frame block is

embedded into a host-block (partner block); later, during concealment, the information

is retrieved and used to improve the results. The information embedding process is fully

reversible and novel, using embedding-levels to avoid introducing unnecessary distortion when the video is decoded using a normal decoder (without the proposed error

concealment method). Some other features such as different concealment orders were

also included to help to achieve better concealment quality in some specific situations

where continuous areas are lost or the number of reliable correctly-received neighbors

does not accomplish with the minimum.

This document involves the explanation of the process of research, design, and evaluation of the performance of the proposed method.

Novedosas aplicaciones emergen a diario, nuevas y viejas tecnologías relacionadas con

el video requieren de métodos eficientes de compresión. Hasta ahora, la gran mayoría

de videos destinados a transmisión vía internet están codificados utilizando el estándar

de video H.264/AVC; sin embargo, H.264/AVC se ve rebasado por los requerimientos

de compresión demandados por aplicaciones de video de última generación. En los

últimos años, la Unión Internacional de Telecomunicaciones (UIT o ITU, por sus siglas

en inglés) ha estado trabajando en el desarrollo del nuevo estándar de codificación de

video: High Efficiency Video Coding (HEVC). Este estándar está diseñado para dar

solución a las demandas de las nuevas aplicaciones de alta y ultra-alta definición (HD

y UHD).

HEVC representa un hito en la historia de los estándares de codificación de video al

introducir nuevas herramientas y técnicas nunca antes vistas en estándares previos. Se

predice que el nuevo códec revolucionaría las aplicaciones móviles y orientadas al hogar;

mientras tanto, algunas aplicaciones como la telemedicina también se verían beneficiadas

de los altos niveles de compresión de HEVC.

La mayoría de las aplicaciones nuevas requerirán de métodos para el ocultamiento

de errores para poder manejar las pérdidas causadas por la transmisión sobre medios

propensos a errores y pérdidas de datos durante el almacenamiento. Los métodos actuales podrían no estar preparados para trabajar con HEVC debido a las novedosas

características en su diseño.

Esta investigación tiene como objetivo el desarrollo de un método para el oculta-

miento de errores basado en información oculta que sea capaz de proveer características

de ocultamiento de errores a las nuevas aplicaciones de video emergentes. El método

está específicamente diseñado para funcionar con las nuevas características en HEVC y

tomar ventaja de ellas. Para lograr lo anterior, la nueva estructura tipo árbol de cada

bloque en cada frame es embebida en un bloque host (también llamado compa ñero);

posteriormente, durante el proceso de ocultamiento de errores, la información es recuperada y utilizada para mejorar los resultados. El proceso de ocultamiento de información

es completamente reversible y novedoso, utiliza niveles para evitar la introducción de

distorsiones innecesarias cuando la secuencia es decodificada por el decoder normal

(sin la característica de ocultamiento de errores propuesta).

Master thesis

Video coding Video signal processing Data handling Error handling CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES

MEDICINA LEGAL UNA NECESIDAD IMPERATIVA EN MÉXICO Y ESTADOS UNIDOS DE AMÉRICA

ANTONIO FUENTE DEL CAMPO (2016)

En la presente investigación analizamos los alcances de la responsabilidad jurídica que enfrenta el profesional médico y los retos que implica el ejercicio de su actividad en México y en Estados Unidos de América. Los pacientes no dudan en interponer medios legales para exigir la reparación del daño causado ante lo que consideran una mala práctica médica. Ante el aumento de demandas por “negligencia médica”, muchas veces incentivadas por abogados inmorales y la promulgación de leyes para atender este problema, el ejercicio profesional se encuentra sobre regulado generando la práctica de una medicina defensiva, que es cara, de mala calidad y está limitando substancialmente su desarrollo.

Article

CIENCIAS SOCIALES Negligencia médica Impericia Imprudencia Demanda Medicina defensiva Sistema de salud Diagnóstico Error de medicación

Glitch: anomalías electrónicas y procesos críticos

LUIS ANDRES CAMACHO VITE (2017)

"El tema de la presente investigación gira entorno a las implicaciones críticas, teóricas, prácticas y artísticas del fenómeno del glitch en nuestro mundo de medios digitales y dispositivos electrónicos. Todo esto para invitar a la reflexión de cómo este fenómeno puede cambiar la relación del ser humano con las máquinas, las comunicaciones y las formas de hacer arte. El objetivo principal de esta investigación es describir cómo se da la relación entre las prácticas relacionadas con la experiencia del glitch y el concepto de crítica. El cual en esta investigación significa: “la critica es, ciertamente, el análisis de los límites y la reflexión sobre ellos.” De esta forma, la actitud crítica la definiremos como, la disposición de analizar los límites y reflexionar sobre ellos. La pregunta en esta investigación sería: ¿cuál es la relación entre la actitud crítica y el fenómeno del glitch dentro de los medios electrónicos? Pero para contestar esta pregunta es necesario especificarla en casos específicos, por lo tanto, en esta investigación se analizará tres casos en donde el glitch forme parte crucial de un proceso crítico. Primero analizaremos el video juego de Halo 2 y los glitches que suceden dentro de sus mapas. Después se analizará los virus impresos en telas del artista estadounidense Jeff Donaldson4 en su proyecto glitchaus5. Finalmente se realizará un análisis de la música del estadounidense Kim Cascone6 en su disco Blue Cube (1998). De esta forma la pregunta se especificaría de la siguiente forma: ¿cuál es la relación entre la actitud crítica y la experiencia del fenómeno del glitch dentro del video juego de Halo 2, la consola de Jeff Donaldson Nontendo."

Benemérita Universidad Autónoma de Puebla

Master thesis

Aprendizaje--Error Halo (Videojuego) Artes visuales--Afroamericanos--Historia y crítica Artes Visuales--Arte digital--Glitch art HUMANIDADES Y CIENCIAS DE LA CONDUCTA

Una prueba sobre la especificación de un modelo de regresión

AMANDA LOLITA PINEDA NORMAN (2013)

Tesis (Maestría en Ciencias, especialista en Estadística).- Colegio de Postgraduados, 2013.

Un modelo de regresión lineal múltiple tiene problemas de especificación incorrecta de la forma funcional cuando no explica en forma adecuada la relación entre la variable dependiente y las explicativas observadas. Una prueba sobre la especificación del modelo es la prueba RESET; sin embargo, la prueba ha demostrado tener baja potencia, quedando además poco clara la forma de definir las variables que serán incluidas en la regresión auxiliar que utiliza, presentando por construcción problemas de multicolinealidad. En el presente trabajo se propone una prueba de especificación basada en Multiplicadores de Lagrange y la regresión Lasso Adaptativo (Zou2006) a la cual le llamamos ML-ALasso. Al igual que la prueba RESET, la prueba ML-ALasso se basa en una regresión ampliada del modelo original. Además se propone un método para muestras pequeñas que utiliza la prueba de permutaciones al cual llamamos ML-ALasso-p. Mediante un estudio de simulación se analiza el comportamiento de las pruebas y se comparan con dos pruebas alternativas para verificar una correcta especificación del modelo. Se concluye que el método ML-ALasso tiene un buen desempeño para muestras grandes y el método ML-ALasso-p funciona bien para muestras pequeñas. _______________ A TEST ON THE SPECIFICATION OF A REGRESSION MODEL. ABSTRACT: A multiple linear regression model has problems of incorrect specification of the functional form when not adequately explain the relationship between the dependent variable and the explanatory observed. A test of the model specification is the RESET test, but the test has been shown to have low power while leaving unclear how to define the variables to be included in the auxiliary regression using, disclosing construction multicollinearity problems. In this paper a specification test based on Lagrange Multipliers and Adaptive Lasso (Zou2006) regression which we call ML-ALasso is proposed. Like the RESET test, the ML- ALasso test is based on an extended regression of the original model. In addition a method for small samples using the permutation test which we call ML-ALasso-p is proposed. By a simulation study test behavior is analyzed and compared with two alternative tests to verify proper specification of the model. We conclude that the ML-ALasso method has a good performance for large samples and ML-ALasso-p method works well for small samples.

Master thesis

RESET Lasso adaptativo Multiplicador de Lagrange Prueba de permutaciones Error de especificación Forma funcional RESET test Adaptive Lasso Lagrange Multiplier Permutation Test Misspecification Functional form Estadística Maestría CIENCIAS SOCIALES

Jordi Ferrer y la tradición racionalista de la prueba jurídica: una mirada crítica

Edgar Ramón Aguilera García (2016)

El artículo revisa las aportaciones más trascendentes que Jordi Ferrer ha hecho a la tradición racionalista de la prueba jurídica y evalúa críticamente el limitado papel que, desde su óptica, le corresponde desempeñar a la epistemología en la discusi ón general sobre los estándares de prueba apropiados para las distintas ramas del derecho. M á s espec íficamente , se analiza la irrelevancia que Ferrer parece atribuir a dicha disciplina o el silencio que debe guardar, respecto del esta - blecimiento del estándar de prueba deseable en materia penal. Se concede que, en efecto, le corresponde al pueblo tomar la decisión de qué estándar implementar. No obstante, se sostiene, ello no impide que la epistemología incida en el proceso de formación de dicha decisión mediante la realización de observaciones, el ofrecimiento de argumentos y la propuesta de metodologías adecuadas, con miras a que aquella se tome en un contexto mejor informado y sea lo más racional posi - ble. Se ilustra esta posición haciendo referencia al proyecto de epistemología jurídica de Larry Laudan.

Article

Derecho Prueba jurídica tradición racionalista reducción del error verdad formal epistemología jurídica estándares de prueba distribución del error CIENCIAS SOCIALES

Diseño de un amplificador Lock In con circuito de alineación de fase en tecnología CMOS de 0.18 µm

MISAEL YERENA MORA (2019)

En este trabajo se diseñó un amplificador lock in en tecnología CMOS de 0.18μm, formado por un amplificador sensible a fase y un circuito de alineación de fase. El amplificador sensible a fase consiste en bloque Amplificador-Modulador basado en una arquitectura de amplificador que utiliza un par diferencial de entrada Flipped Voltage Follower con resistencias lineales de degeneración Rᵪ y carga R🇱, el cual proporciona una ganancia fija R🇱=Rᵪ de 40 dB, mientras que la demodulación queda embebida en la etapa de salida del transconductor, optimizándose así el diseño en términos de consumo de potencia y área. Para concluir la etapa de amplificación sensible a fase se ha diseñado un filtro activo pasa bajas en modo diferencial totalmente integrable. El circuito de alineación de fase se encarga de ajustar, con un control digital, la fase de la señal de referencia con respecto a la señal de interés. Para ello, utiliza fundamentalmente un comparador con histéresis, para detectar los cruces por V🇩🇩=2 del nivel en DC de salida, un desplazador de fase variable con un control digital, y un desplazador de fase fijo de 90°. La palabra de control digital se puede generar mediante un contador de 5 bits (propuesta 1) o bien mediante un registro de aproximaciones sucesivas (SAR), propuesta 2. En el primer caso es posible alinear las fases en un tiempo de 830ms con un error en fase máximo de ±8:6°, mientras que en el segundo caso es posible alinear las fases en un tiempo de 237ms, con un error en fase máximo de ±4:72°. Por ello se seleccionó la segunda propuesta para el diseño del sistema completo. El amplificador lock in resultante tiene una ganancia de 42dB, una reserva dinámica de 33.9dB y permite recuperar una señal de interés de ambientes ruidosos con un error inferior al 4:5%.

Master thesis

LOCKIN amplifiers Transconductacy Relative error Error in phase CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA FÍSICA ELECTRÓNICA ELECTRÓNICA

Estructuras y características de desempeño de los códigos LDPC (Low-Density Parity-Check Codes)

WILSON GIOVANNI CASTAÑEDA BARBOSA (2013)

Este trabajo presenta el análisis de las estructuras y características de

desempeño de los códigos LDPC (Low-Density Parity-Check Codes), los

cuales son una clase de códigos lineales de bloque que proporcionan un

rendimiento cercano a la Capacidad utilizando decodificación iterativa.

En principio se presenta la idea general de un sistema de comunicaciones

y por medio de un diagrama de bloques se muestra cómo está

conformado tal sistema. Después se sigue con la explicación del concepto

de codificación y la razón por la cual se necesita de ésta para la

transmisión o almacenamiento de información. Además se dan las

definiciones de algunos parámetros utilizados en este campo, incluyendo

el gran aporte de Shannon con sus teoremas.

Posteriormente se realiza una revisión general de las familias de códigos

de corrección de error presentes en la literatura, definiendo sus

estructuras y diferencias. Luego de esta revisión se da una introducción a

los códigos LDPC, en donde se explica la forma de codificación y los

distintos algoritmos de decodificación para estos códigos.

Finalmente, se realiza el análisis del tipo de códigos LDPC basados en

arreglos y se muestran los resultados de las simulaciones realizadas. Se

presenta la definición del fenómeno de error-floor y conjuntos absorbentes

los cuales afectan el rendimiento de los códigos LDPC en las regiones de

bajo BER (Bit-Error Rate). Se estudia el efecto de la cuantización en el

rendimiento de los decodificadores de los códigos LDPC basados en

arreglos. Así mismo, basados en el estudio anterior se analiza el resultado

de la variación de los pesos de las columnas de las matrices de

comprobación de paridad para dichos códigos.

Al final de la tesis se incluyen los códigos de los programas realizados,

junto con una breve descripción de ellos, y se detalla un programa

interactivo basado en MatLab para la enseñanza de comunicaciones

digitales.

Master thesis

Parity cheek codes Error detection codes Error floor Error correction codes Absorbing-sets CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA FÍSICA ELECTRÓNICA

A simple approach to multilingual polarity classification in twitter

Eric Tellez SABINO MIRANDA JIMENEZ Mario Graff Daniela Moctezuma Ranyart Rodrigo Suarez Ponce de Leon Oscar Sánchez Siordia (2017)

Recently, sentiment analysis has received a lot of attention due to the interest in mining opinions of social media users. Sentiment analysis consists in determining the polarity of a given text, i.e., its degree of positiveness or negativeness. Traditionally, Sentiment Analysis algorithms have been tailored to a specific language given the complexity of having a number of lexical variations and errors introduced by the people generating content. In this contribution, our aim is to provide a simple to implement and easy to use multilingual framework, that can serve as a baseline for sentiment analysis contests, and as a starting point to build new sentiment analysis systems. We compare our approach in eight different languages, three of them correspond to important international contests, namely, SemEval (English), TASS (Spanish), and SENTIPOLC (Italian). Within the competitions, our approach reaches from medium to high positions in the rankings; whereas in the remaining languages our approach outperforms the reported results.

Article

Multilingual sentiment analysis Error-robust text representations Opinion mining INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE LOS ORDENADORES INTELIGENCIA ARTIFICIAL INTELIGENCIA ARTIFICIAL