Advanced search


Knowledge area




225 results, page 1 of 10

Representación de formas articuladas por medio de grafos pesados basados en esqueletos

LAURA ALEJANDRA PINILLA BUITRAGO (2014)

Partiendo de la noción de que el cerebro humano puede reconocer imágenes haciendo

uso únicamente de las siluetas de los objetos, han surgido líneas de investigación interesadas

en abstraer información de la forma de los mismos. Los dos enfoques principales

para el reconocimiento de formas son: basados en contorno y basados en esqueleto. Los

métodos basados en esqueleto han demostrado ser más útiles que los basados en contorno

cuando los objetos son formas articuladas. Sin embargo, aunque existen diferentes métodos

para la construcción de esqueletos a partir de formas 2D, estos métodos requieren

de diferentes parámetros de entrada los cuales son sensibles a las características de las

formas o requieren demasiado tiempo de ejecución. Por otra parte, aunque son numerosos

los métodos para la obtención de esqueletos a partir de formas, son pocos los trabajos que

presentan estrategias para la obtención de características a partir de los esqueletos, de tal

manera que puedan ser utilizadas en tareas de identificación, clasificación y reconocimiento

de formas.

En esta tesis se propone un nuevo método para la obtención de esqueletos sin pérdida

de ramas importantes y libre de ramas no deseadas. Posteriormente, son construidos grafos

pesados a partir de características obtenidas desde el esqueleto y éstos son a su vez

utilizados en tareas de clasificación.

El método de clasificación propuesto en este trabajo utiliza OSB (del inglés Optimal

Subsequence Bijection) para obtener un valor de similitud en función de las correspondencias

encontradas entre pares de pixeles finales para dos esqueletos representados como

grafos pesados. La estrategia de clasificación propuesta en este trabajo permite una alta

reducción del costo computacional y produce mejores resultados de clasificación respecto

a métodos presentados en la literatura que utilizan OSB para comparar grafos.

Master thesis

Graph theory Classification Shapes CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES

Método de clasificación multiclase utilizando dicotomías

MIRIAM MONICA DUARTE VILLASEÑOR (2012)

La clasificación supervisada es una de las tareas abordadas en el reconocimiento

de patrones, con aplicación en diferentes áreas como medicina, astronomía, economía,

entre otras. En estas áreas, comúnmente aparecen problemas multiclase,

es decir, problemas con más de dos clases; en los cuales cada objeto es descrito

por atributos numéricos y no numéricos (datos mezclados).

En este trabajo de tesis se propone un nuevo método de clasificación multiclase

utilizando dicotomías anidadas, el cual resuelve problemas multiclase por medio

de clasificadores binarios (de dos clases). Las dicotomías anidadas forman árboles

binarios en los cuales, en cada nodo del árbol, se dividen las clases en dos grupos

y se construye un clasificador binario para separar estos grupos. Este proceso se

repite recursivamente hasta tener una sola clase en cada hoja del árbol.

La mayoría de los métodos para construir dicotomías anidadas lo hacen de forma

aleatoria, lo cual no garantiza encontrar una buena dicotomía. Es por eso que, en

esta tesis, se proponen nuevos métodos no aleatorios para construir dicotomías

anidadas, siguiendo la idea de separar en los niveles superiores las clases más fáciles

de separar y en los niveles inferiores las clases más difíciles, con el objetivo

de reducir los errores en los niveles superiores; ya que si se comete un error en un

nivel, éste no podrá ser corregido en los niveles posteriores y el objeto quedará

mal clasificado.

Para evaluar el desempeño de los métodos propuestos para construir dicotomías

anidadas, se compararon los resultados de precisión en diferentes bases de datos

del repositorio UCI, contra los resultados obtenidos con métodos que construyen

las dicotomías anidadas de forma aleatoria.

Master thesis

Classification Binary class Tree data structures CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES

Reconocimiento de imaginación motora de señales EEG en el dominio temporal aplicando modelos paramétricos

DAVID FELIPE DCROZ BARON (2011)

In this thesis electroencephalography (EEG) signals are analyzed. The electrophysiological activity addressed in this work is Sensorimotor Activity, specifically Motor Imagery of the left and right hands. The EEG data were obtained from the public repository of the Brain- Computer Interface (BCI) Competition, available to the international community for academic and research purposes. In addition, an experiment was proposed in order to obtain the Neuro- Imaging, Cognition and Engineering Laboratory (NICE Lab) database at Texas Tech University.

An algorithm that basically has two stages, feature extraction and classification, is proposed. Autoregressive Modeling (AR) and Adaptive Autoregressive Modeling (AAR) are used for feature extraction to analyze the EEG signals as a time series in order to obtain a set of coefficients that will be used as a feature vector. The classification task is carried out using Linear Discriminant Analysis (LDA), which is a linear classifier. The algorithm is implemented in MATLAB® and at the end a comparison between the used techniques is evaluated.

En esta tesis se analizan señales de electroencefalografía (EEG) correspondientes a la actividad fisiológica Sensorial- Motora, específicamente en la imaginación de movimientos de las manos izquierda y derecha, con orientación al desarrollo de interfaces cerebro- computadora (BCI). Las señales son obtenidas de las bases de datos de competiciones BCI, disponibles a la comunidad científica para propósitos académicos y de investigación. Adicionalmente se realizó un experimento en el Neuro-Imaging, Cognition and Engineering Laboratory (NICE Lab) en el Texas Tech University.

Se propone un algoritmo que básicamente consta de dos etapas: extracción de características y clasificación. En la extracción de características se utilizan modelos Autorregresivos (AR) y Autorregresivos Adaptables (AAR) para analizar la señal EEG como una serie de tiempo, obteniendo así un conjunto de coeficientes de orden definido que representa el vector a clasificar. En la clasificación se utiliza un clasificador lineal denominado Análisis de Discriminantes Lineales (LDA). El algoritmo es implementado en MATLAB® y al final se realiza una comparación de las técnicas utilizadas.

Master thesis

Keywords Autoregressive processes Brain Classification CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA FÍSICA ELECTRÓNICA

Atribución de autoría utilizando distintos tipos de características a través de una nueva representación

ADRIAN PASTOR LOPEZ MONROY (2012)

Nowadays, the huge amount of information available in the Web is constantly

growing. Much of this information is in plain text written by users under different

contexts, for example: social networks, forums, blogs, emails, etc. In this regard, it

is important to have automated tools in order to assist the analysis of such information.

One situation that has gained interest in recent years is the Authorship

Attribution (AA) task. In general the main goal of AA is to identify automatically

documents belonging to one or more authors. For example, building methods to

deal with situations such as: terrorist message verification, spam filtering, copyright

disputes, etc. Currently, different algorithms and strategies for addressing

AA have been proposed; especially machine learning approaches. The idea of this

approach is to build classifiers using a set of training documents. Unfortunately,

the available document set is not always ideal, the latter is because there are scenarios

where the instances are few, imbalanced, or both. Considering the above

situations, textual features that best represent the style of each author and documents

representation, play a key role in the performance of machine learning

algorithms. This thesis proposes an alternative method for AA that takes advantage

of using different types of attributes, through a new representation. It follows

the idea that different types of attributes (e.g., character n-grams, punctuation

marks) provide different perspectives of the style of documents and therefore of authors. In particular, we propose: i) using sets of attributes that can retain the

style of the authors, ii) characterizing textual features with a representation that

considers the relationships between documents and authors, and iii) proposing

alternatives to integrate representations of different types of attributes in a classification model. The evaluation is performed on the c50 corpus, which has been

used in different AA works. In our experiments we measure the classification accuracy,

considering scenarios with few training data and imbalanced classes for a

set of authors. The experimental results showed that the proposed method and

our representation is a good alternative to AA, even in settings where the training

data is limited or imbalanced.

Hoy en día la inmensa cantidad de información disponible a través de internet

se encuentra en constante crecimiento. Gran parte de ésta es texto escrito

por usuarios bajo distintos contextos, por ejemplo: redes sociales, foros, bitácoras,

correos electrónicos, etc. En este sentido, surge la necesidad de contar con

mecanismos automáticos para facilitar el análisis de dicha información. Una de

las situaciones que en recientes años ha estado ganando interés es la Atribución

de Autoría (AA). De forma general, la AA consiste en lograr identificar automáticamente los documentos de uno o más autores. Por ejemplo, existe interés en

el desarrollo de métodos para hacer frente a situaciones de: verificación de mensajes

terroristas, filtrado de spam, disputas por derechos de autor, etc. Hoy en

día se han propuesto diferentes algoritmos y estrategias para llevar a cabo la AA;

en especial enfoques de aprendizaje automático. Con este enfoque se pretende

construir clasificadores utilizando un conjunto de documentos de entrenamiento.

Desafortunadamente, no siempre se tiene disponible un conjunto de documentos

ideal, es decir existen escenarios donde los datos son escasos o desbalanceados.

Considerando las situaciones anteriores, los atributos textuales que mejor representen

el estilo de cada autor, así como la representación de los documentos, juegan

un papel fundamental para el buen desempeño de los algoritmos de aprendizaje.

En esta tesis se propone un método alternativo para AA que aproveche el uso de distintos tipos de atributos, por medio de una nueva representación. Se sigue la

idea de que distintos tipos de atributos (e.g., n-gramas de caracteres, signos de

puntuación) proporcionan distintas perspectivas del estilo de los documentos y

por consiguiente de los autores. En particular, proponemos: i) utilizar conjuntos

de atributos que puedan retener el estilo de los autores, ii) caracterizarlos con

una representación que considere las relaciones entre documentos y autores, y iii)

proponer alternativas para la integración de la representación de distintos tipos

de atributos en un modelo de clasificación. La evaluación se realiza sobre el corpus

c50, el cual ha sido utilizado en distintos trabajos de AA. Durante la evaluación

utilizamos la exactitud para medir la clasificación, considerando escenarios con

pocos datos de entrenamiento y desbalanceados.

Master thesis

Attribute grammars Computer applications Classification Automatic programming Assembly languajes CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES

Método semisupervisado para la clasificación automática de textos de opinión

NADIA PATRICIA ARAUJO ARREDONDO (2009)

Today a large amount of information is available through different electronic

resources, such as digital libraries, collections of documents or Internet. The need to

access this information for its extraction and analysis has led to various forms of

information handling, among which is the classification of texts. However, the constant

growth of information turns the task of classifying documents by hand expensive

and time consuming, requiring to automate the classification process. The

automatic classification of texts involves placing a document within a group of predefined

classes. Most of the work in this area has focused on the classification of

texts by their subject or topic. However, in recent years there has been an increasing

interest in the task of non-thematic classification. Examples of non-thematic classification

are the detection of plagiarism, authorship attribution, gender classification,

and the classification of opinions. This thesis focuses on the task of opinion classification.

Specifically, it considers the problem of determining the polarity of opinion

in sentences by a Machine Learning approach using lexical features. It is worth mentioning

that one of the contributions of this thesis is the characterization of opinions

necessary for automatic classification. In addition, currently, there is no tagged corpus

in Spanish, complicating the learning process. In this work we present the first

steps towards the creation of this corpus. Specifically it proposes an approach for

semi-supervised classification of opinions, reducing the need for a large corpus and

manual tagging.

Hoy en día se encuentra disponible una gran cantidad de información a través

de distintos medios electrónicos, en bibliotecas digitales, en colecciones de documentos

o en Internet. La necesidad de acceder a esta información para su extracción

y análisis, ha llevado a la creación de diversas formas de manipulación de información,

entre las que se encuentra la clasificación de textos. Sin embargo, el crecimiento

constante de información hace que la tarea de clasificar documentos de forma

manual sea costosa y que requiera de mucho tiempo, por lo que ha surgido el interés

por realizar la clasificación de manera automática. Podemos decir entonces que la

clasificación automática de textos consiste en colocar un documento dentro de un

grupo de clases previamente definidas. La mayor parte del trabajo en esta área se ha

enfocado en la clasificación de textos por su tema o tópico. Sin embargo, en los últimos

años se ha puesto gran interés en la tarea de clasificación no temática. Algunos

ejemplos de esta última son la detección de plagio, la atribución de autoría, la

clasificación por género y la clasificación de opiniones. Este trabajo de tesis se enfoca

en la tarea de clasificación de opiniones, específicamente se aborda el problema

de determinar la polaridad de opiniones, es decir, clasificar aquellas opiniones que

expresan algo a favor de aquellas que expresan algo en contra, a nivel de oración,

bajo un enfoque de Aprendizaje Computacional utilizando características léxicas.

Cabe mencionar que una de las contribuciones de este trabajo es la caracterización

de opiniones, necesaria para su clasificación automática. Además, en la actualidad,

no existe un corpus etiquetado en idioma español, lo que dificulta el proceso de

aprendizaje. Es por ello que en este trabajo se dan los primeros pasos para la creación

de este corpus. Específicamente se propone un enfoque de aprendizaje semisupervisado

de clasificación de textos de opinión, disminuyendo la necesidad de un

gran corpus ya etiquetado.

Master thesis

Classification Computational linguistic CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES

Método de clasificación multi-etapa para el direccionamiento de solicitudes en un centro de llamadas

FERNANDO UCEDA PONGA (2009)

The recognition of spoken languages for the communication between humans and

technological systems has gotten more attention in the last years. Specifically, this is

true for the case of call centers, where it is desirable for an automatic system to link a

user with the corresponding service.

Typically, the use of voice for automatic call routing requires two main steps. In

the first step, the elocution or intervention from the user is transcribed using a voice

recognition system. Then, in a second step, the automatic transcription is analyzed in

order to determinate the user requested service. This second step is the focus of this

thesis, and it is defined as a problem of automatic text classification.

It is important to point out that the application of traditional text-classification approaches

is not possible for this task; on the one hand, because transcriptions from the

elocutions are very short (commonly a phrase of few words), and, on the other hand,

because current voice recognizers are not perfect and tend to produce several wrong

transcriptions. In addition, and given the functionality of a call center, it is always possible

to search help from a human operator. Thanks to this possibility, the interventions

that can not be recognized are rejected by the system and are resolved through an operator.

Evidently, this rejection implies a cost; the higher the rejection rate the higher the

cost.

The current work presents a multi-step classification method that allows finding a

balance between the rejection rate and the precision for an automatic call center. The

proposed classification scheme considers two steps. The first step tries to ensure a high

precision in the classification of the interventions, by incurring in a high rejection rate.

Later, in the second step, the rejected interventions are reclassified with the aim of recovering

some of them (which were erroneously rejected in the fist step). It is important

to mention that for this classification scheme we also developed a new weighting method.

Thanks to this method we could better describe the contribution of each attribute

to each one of the categories.

The experiments reported in this work demonstrate the relevance of the proposed

method; its results were better than those obtained by other state of art approaches.

El reconocimiento del lenguaje hablado para la comunicación humana en los sistemas

tecnológicos ha cobrado gran auge en los últimos años. Específicamente para

su uso en centros de llamadas o call centers. Donde gracias a un sistema automático

es posible enlazar al usuario con el servicio correspondiente. Típicamente, el direccionamiento

automático de llamadas a través del habla requiere dos pasos. Durante el

primero, se transcribe la elocución o intervención del usuario que llama utilizando un

sistema de reconocimiento de habla. Un segundo paso, toma la transcripción automática

y determina el servicio solicitado por el usuario. Este segundo paso es foco de atención

de esta tesis y es abordado como un problema de clasificación automática de texto.

Sin embargo, aplicar los enfoques tradicionales de clasificación de textos a esta tarea

no es posible. En primer lugar, las transcripciones provienen de elocuciones muy

cortas, una frase de unas cuantas palabras con las que un usuario expresa su necesidad.

Además, dado que aún no se cuenta con un reconocedor de habla perfecto, es posible

encontrar transcripciones erróneas. Por otro lado, debido a la naturaleza propia de un

centro de llamadas, siempre existe la posibilidad de buscar el apoyo de un operador

humano. Gracias a esta posibilidad el sistema puede recurrir a un operador en caso

de la incomprensión de una orden. De esta manera, aquellas intervenciones no reconocibles

son rechazadas por el sistema y resueltas por un operador. Por supuesto, este

rechazo implica un costo, mientras más alta sea la tasa de rechazo más alto será el costo.

El presente trabajo presenta un método de clasificación multi-etapa que permite encontrar

un balance entre una baja tasa de rechazo y una alta precisión para un centro de

llamadas. El esquema de clasificación propuesto se compone de dos etapas. Una primera

etapa busca asegurar una alta precisión en la clasificación de las transcripciones

incurriendo inevitablemente en un alto rechazo. Posteriormente, en una segunda etapa,

las llamadas inicialmente rechazadas se revisan y se reclasifican, recuperando de entre

ellas las rechazadas erróneamente. Cabe resaltar que para este esquema de clasificación

también se desarrolló un nuevo método de pesado. Gracias a este método se logra describir

de mejor manera la contribución de cada atributo en la discriminación entre las

categorías.

Master thesis

Classification Natural language Processing Call centres CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES

A Predictive Model for Guillain–Barré Syndrome Based on Ensemble Methods

Juana Canul_Reich Oscar Chávez-Bosquez Betania Hernandez Ocaña (2018)

Nowadays, Machine Learning methods have proven to be highly effective on the identification of various types of diseases, in the form of predictive models. Guillain–Barré syndrome (GBS) is a potentially fatal autoimmune neurological disorder that has barely been studied with computational techniques and few predictive models have been proposed. In a previous study, single classifiers were successfully used to build a predictive model. We believe that a predictive model is imperative to carry out adequate treatment in patients promptly. We designed three classification experiments: (1) using all four GBS subtypes, (2) One versus All (OVA), and (3) One versus One (OVO). These experiments use a real-world dataset with 129 instances and 16 relevant features. Besides, we compare five state-of-the-art ensemble methods against 15 single classifiers with 30 independent runs. Standard performance measures were used to obtain the best classifier in each experiment. Derived from the experiments, we conclude that Random Forest showed the best results in four GBS subtypes classification, no ensemble method stood out over the rest in OVA classification, and single classifiers outperformed ensemble methods in most cases in OVO classification. This study presents a novel predictive model for classification of four subtypes of Guillain–Barré syndrome. Our model identifies the best method for each classification case. We expect that our model could assist specialized physicians as a support tool and also could serve as a basis to improved models in the future.

Article

CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA Guillain-Barré Ensemble Predictive model Classification

Comparison of Convolutional Neural Network Architectures for Classification of Tomato Plant Diseases

CARLOS ERIC GALVAN TEJADA CARLOS ALBERTO OLVERA OLVERA HUIZILOPOZTLI LUNA GARCIA (2020)

Tomato plants are highly affected by diverse diseases. A timely and accurate diagnosis

plays an important role to prevent the quality of crops. Recently, deep learning (DL), specifically

convolutional neural networks (CNNs), have achieved extraordinary results in many applications,

including the classification of plant diseases. This work focused on fine-tuning based on the

comparison of the state-of-the-art architectures: AlexNet, GoogleNet, Inception V3, Residual Network

(ResNet) 18, and ResNet 50. An evaluation of the comparison was finally performed. The dataset

used for the experiments is contained by nine different classes of tomato diseases and a healthy

class from PlantVillage. The models were evaluated through a multiclass statistical analysis based

on accuracy, precision, sensitivity, specificity, F-Score, area under the curve (AUC), and receiving

operating characteristic (ROC) curve. The results present significant values obtained by the GoogleNet

technique, with 99.72% of AUC and 99.12% of sensitivity. It is possible to conclude that this

significantly success rate makes the GoogleNet model a useful tool for farmers in helping to identify

and protect tomatoes from the diseases mentioned.

Producción Científica de la Universidad Autónoma de Zacatecas UAZ

Article

CIENCIAS AGROPECUARIAS Y BIOTECNOLOGÍA tomato plant diseases deep learning onvolutional neural networks classification

Clasificación de textos cortos usando representaciones distribucionales de los términos

JUAN MANUEL CABRERA JIMENEZ (2012)

The amount of short documents that are available has increased considerably

in recent years due to technological advances. In this context, it has motivated the

development of automatic mechanisms to facilitate their access, organization and

analysis. Due to the tiny length of documents and the extremely sparse document

representations, the direct application of standard text categorization methods is

not an effective solution to the problem. This work describes the use of distributional

representations of terms (DTRs) for the classification of short texts to

overcome, to some extent, the small-length/high-sparsity issues. The DTRs are a

way of representing terms, using contextual information, given by their document

occurrence and term co-occurrence statistical. We combine the DTRs of the terms

appearing in short texts to generate better document representations that can be

used with standard machine learning techniques. Thus, a document is not represented

by the terms that occur in it, but by a contextual weight vector, indicating

the association of terms with documents in the corpus or terms in the vocabulary.

The evaluation was performed in three collections, using a variety of classification

methods and two different scenarios: i) in the classification of short texts, and ii)

in the classification of short texts when there are few labeled documents. The experimental

results show that the use of DTRs improves performance of classifiers

in short text categorization and also when one has a combination of short texts and a small training set. In particular, the document-occurrence representation

outperformed the other representations we evaluated.

La cantidad de documentos cortos que está disponible se ha incrementado

considerablemente en los últimos años gracias a los avances tecnológicos. En este

contexto se ha motivado el desarrollo de mecanismos automáticos que faciliten

su acceso, organización y análisis. Debido a la longitud de los documentos y a

las representaciones tan dispersas de los documentos, la aplicación directa de

los métodos de representación estándar de la categorización de texto no es una

solución viable al problema. En este trabajo se describe el uso de las representaciones

distribucionales de los términos (DTRs, por sus siglas en inglés) para la

clasificación de los textos cortos para superar, en cierta medida, los problemas

longitud/dispersión. Las DTRs son una forma de representar términos, por medio

de la información contextual dada por la ocurrencia en un documento y la

co-ocurrencia estadística entre términos. Combinamos las DTRs de los términos

que aparecen en los textos cortos para generar mejores representaciones de documentos

que se pueden utilizar con las técnicas de aprendizaje automático. De esta

manera, un documento no está representado por los términos que ocurren en él,

sino por un vector de pesos contextuales, que indican la asociación de términos

con los documentos en el corpus o con términos en el vocabulario. La evaluación

se realizó en tres colecciones, utilizando una variedad de métodos de clasificación

y en dos distintos escenarios: i) en la clasificación de textos cortos, y ii) en la clasificación de textos cortos y conjunto de datos reducido. Los resultados experimentales

demostraron que el uso de las DTRs es beneficioso para mejorar el

rendimiento de los clasificadores en la categorización de textos cortos y también

cuando se tiene una combinación de textos cortos y un conjunto de entrenamiento

reducido. En particular, la representación ocurrencia-documento superó a las

otras representaciones evaluadas.

Master thesis

Text editing Classification Natural language processing Distributional term representation CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES

Sonificación de EEG para la clasificación de habla imaginada

ERICK FERNANDO GONZALEZ CASTAÑEDA (2015)

Actualmente las interfaces cerebro-computadora (BCI) basadas en EEG son mecanismos

que buscan, entre otros objetivos, ayudar a personas con discapacidad motriz

severa a comunicarse con su entorno. Sin embargo, éstas aún no son utilizadas en la

vida cotidiana por lo poco intuitivas que son las fuentes electrofisiológicas para controlarlas.

Para afrontar dicho problema se ha explorado utilizar la fuente electrofisiológica

conocida como habla imaginada con el objetivo de generar patrones de neuroseñales

que ayuden a la clasificación ocurra de forma más natural.

En este trabajo se utilizó la técnica de sonificación de señales de EEG, la cual nos

permite caracterizar la señal de EEG como una señaal de audio. El objetivo es analizar

si al aplicar el proceso de sonificación de la señal de EEG se puede discriminar o

resaltar patrones en la señal que mejoren los resultados de clasificación de palabras no

pronunciadas. Para ello se procesó la señal con y sin sonificación. En esta investigación

se extrajeron características con dos diferentes métodos DWT y MFCC, éste último

comúnmente utilizado en tareas de reconocimiento de voz.

Se obtuvieron los resultados de los 4 canales más cercanos a las áreas de lenguaje

de Broca y Wernicke y los 14 canales del dispositivo EEG. Los porcentajes de exactitud

promedio para los 27 sujetos en los 2 conjuntos con 4 y 14 canales usando sonificación

de EEG mejoran 7.72% y 5.41% respectivamente. Con los resultados obtenidos se

pudo constatar que al aplicar la sonificación de EEG se puede caracterizar mejor la

señal de EEG, con respecto al trabajo en el estado del arte que no aplica dicha técnica.

Por medio de la selección de las frecuencias dominantes y la mejor distribución de

la energía de la señal en un espectro de frecuencias más amplio se logró discriminar

los patrones que apoyan a mejorar ligeramente los porcentajes de clasificación de las

palabras imaginadas.

Master thesis

Electroencephalography Audio signal processing Classification Feature extraction CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA MATEMÁTICAS CIENCIA DE LOS ORDENADORES