▷ Sabiduría mensual que puede leer en pocos minutos. Añada nuestra revista gratuita a su bandeja de entrada.

Redes Neuronales Artificiales

Los clasificadores polinómicos pueden modelar superficies de decisión de cualquier forma; sin embargo, su utilidad práctica es limitada debido a la facilidad con la que superan a los ruidosos datos de entrenamiento y al número a veces poco práctico de parámetros entrenables. Mucho más populares son las redes neuronales artificiales, en las que muchas unidades simples, denominadas neuronas, están interconectadas por enlaces ponderados en estructuras más grandes de notable rendimiento. El campo de las redes neuronales es muy rico, y aquí nos centraremos en dos tipos populares: los perceptrones multicapa y las redes de función de base radial. En el texto se describe cómo cada una de ellas clasifica los ejemplos, y luego se describen algunos mecanismos elementales para inducirlas a partir de los datos de formación.

Análisis Cualitativo de Procesos

Analizar los procesos de negocio es tanto un arte como una ciencia. En este sentido, el análisis cualitativo es el lado artístico del análisis de procesos. Las técnicas de análisis cualitativo de procesos nos permiten identificar, clasificar y comprender las debilidades y oportunidades de mejora de un proceso. En este texto, presentamos un conjunto seleccionado de principios y técnicas para el análisis cualitativo de procesos. En primer lugar, presentamos dos técnicas para identificar los pasos innecesarios del proceso (análisis de valor añadido) y las fuentes de residuos (análisis de residuos). A continuación, presentamos técnicas para identificar y documentar los problemas de un proceso desde múltiples perspectivas y para analizar las causas fundamentales de estos problemas. El análisis de valor añadido es una técnica para identificar los pasos innecesarios de un proceso con miras a eliminarlos. En muchos casos, los participantes en el proceso tienen una comprensión implícita de los pasos de una tarea porque la realizan día tras día. Pero esta comprensión implícita no está documentada en ninguna parte. En ausencia de tal documentación, el analista de procesos necesita descomponer cada tarea en pasos por medio de la observación y la entrevista. Habiendo descompuesto el proceso en pasos, como segundo requisito para el análisis de valor añadido es identificar quién es el cliente del proceso y cuáles son los resultados positivos que el cliente busca del proceso.

Aprendizaje No Supervisado

El texto describe algunas técnicas prácticas para el aprendizaje no supervisado, explicando los algoritmos básicos, sus comportamientos en circunstancias prácticas y los beneficios que ofrecen. Mientras que el aprendizaje supervisado se centra en la inducción de los clasificadores, el aprendizaje no supervisado está interesado en descubrir propiedades útiles de los datos disponibles. Tal vez la tarea más popular sea la de buscar grupos (llamados clusters) de ejemplos similares. Los centroides de estos grupos pueden ser utilizados como centros gausianos para los clasificadores Bayesianos o RBF, como predictores de valores de atributos desconocidos, e incluso como herramientas de visualización de datos multidimensionales. Por último, pero no menos importante, las técnicas utilizadas en el aprendizaje no supervisado pueden utilizarse para crear atributos de nivel superior a partir de los ya existentes.

Análisis Cualitativo

El objetivo es ayudar al lector a conocer el proceso de análisis de datos en la investigación cualitativa, a ser capaz de evaluar críticamente los puntos fuertes y débiles del análisis cualitativo, a tener una clara comprensión del debate sobre la naturaleza del análisis de datos cualitativos y ser capaz de responder con inteligencia a los distintos puntos planteados en el debate; a haber adquirido un conocimiento básico de las formas en que el análisis cualitativo emplea los ordenadores, y ser consciente de sus puntos fuertes y sus limitaciones, a estar en condiciones de realizar un análisis cualitativo y a ser capaz de situar la investigación con métodos mixtos de forma lógica y metodológica en el ámbito del análisis cualitativo de datos.

Árbol de Decisión

El árbol de decisión es la herramienta más poderosa y popular para la clasificación y predicción. (Tal vez sea de interés más investigación sobre el concepto). Un árbol de decisión es un diagrama de flujo como una estructura de árbol, donde cada nodo interno denota una prueba sobre un atributo, cada rama representa un resultado de la prueba, y cada nodo de hoja (nodo terminal) tiene una etiqueta de clase. Un árbol puede “aprenderse” dividiendo el conjunto de fuentes en subconjuntos basándose en una prueba de valor de atributo. Este proceso se repite en cada subconjunto derivado de una manera recursiva llamada partición recursiva. La recursión se completa cuando el subconjunto de un nodo tiene el mismo valor de la variable objetivo, o cuando la división ya no añade valor a las predicciones. La construcción del clasificador de árbol de decisión no requiere ningún conocimiento de dominio o parametrización, y por lo tanto es apropiado para el descubrimiento de conocimiento exploratorio. Los árboles de decisión pueden manejar (gestionar) datos de gran tamaño. En general, el clasificador de árboles de decisión tiene una buena precisión. (Tal vez sea de interés más investigación sobre el concepto). La inducción de árboles de decisión es un enfoque inductivo típico para aprender conocimientos sobre clasificación. (Tal vez sea de interés más investigación sobre el concepto). Los árboles de decisión clasifican las instancias clasificándolas desde la raíz del árbol hasta algún nodo de hoja, lo que proporciona la clasificación de la instancia. Una instancia se clasifica comenzando en el nodo raíz del árbol, probando el atributo especificado por este nodo, luego bajando por la rama del árbol correspondiente al valor del atributo como se muestra en la figura de arriba, este proceso se repite para el subárbol arraigado en el nuevo nodo.

Evaluación del Desempeño

Esta entrada se ocupa de la cuestión de cómo comparar la idoneidad de las técnicas alternativas de aprendizaje automático para la inducción en un dominio determinado. Dividir el conjunto de ejemplos preclasificados al azar en dos subconjuntos (uno para la inducción, el otro para la prueba) puede no ser lo mejor, especialmente si el conjunto de formación es pequeño; la división aleatoria puede entonces dar lugar a subconjuntos que no representen adecuadamente el dominio dado. Para obtener resultados más fiables, es necesario repetir las ejecuciones aleatorias. En el presente texto se abordan ambas cuestiones, explicando criterios alternativos para cuantificar el rendimiento (véase una definición en el diccionario y más detalles, en la plataforma general, sobre rendimientos) de los clasificadores y luego se examinan algunas estrategias utilizadas comúnmente en la evaluación experimental de los algoritmos de aprendizaje por máquina.

Análisis de Datos

Análisis de datos

Algoritmo Genético

La esencia del aprendizaje automático es la búsqueda de la mejor solución a nuestro problema: encontrar un clasificador que clasifique de la forma más correcta posible no solo los ejemplos de formación, sino también los ejemplos futuros. En otro lugar se explicó el principio de una de las técnicas de búsqueda basadas en la IA más populares, la llamada “escalada”, y se mostró cómo puede utilizarse en la inducción del clasificador. Existe otro enfoque de búsqueda: el Algoritmo Genético, inspirado en los principios de la evolución darwiniana. El lector debe familiarizarse con él porque la técnica puede ser muy útil para tratar diversos problemas de aprendizaje de las máquinas. Este texto presenta la versión de base de este tema.

Aprendizaje Automatizado

Como dicen, una imagen, un ejemplo, vale más que mil palabras. Esto es lo que queremos que nuestra tecnología emule. Incapaz de definir ciertos objetos o conceptos con la precisión adecuada, queremos transmitirlos a la máquina a través de ejemplos. Sin embargo, para que esto funcione, la computadora debe ser capaz de convertir los ejemplos en conocimiento. De ahí nuestro interés en los algoritmos y técnicas para el aprendizaje de la máquina, el tema de este texto. Aquí se formula la tarea como un problema de búsqueda, introduciendo la búsqueda de escalada no solo como nuestro intento preliminar de abordar la tarea de aprendizaje de la máquina, sino también como una herramienta que será útil en algunos problemas auxiliares que se encontrarán en este ámbito, incluido otras entradas relacionadas. Establecidos así los fundamentos, procederemos a cuestiones tales como los criterios de rendimiento, la metodología experimental y ciertos aspectos que hacen que el proceso de aprendizaje sea difícil e interesante. El aprendizaje profundo permite que los modelos computacionales que se componen de múltiples capas de procesamiento aprendan representaciones de datos con múltiples niveles de abstracción. (Tal vez sea de interés más investigación sobre el concepto). Estos métodos han mejorado dramáticamente el estado del arte en reconocimiento de voz, reconocimiento visual de objetos, detección de objetos y muchos otros dominios como el descubrimiento de drogas y la genómica. El aprendizaje profundo descubre la intrincada estructura de los grandes conjuntos de datos utilizando el algoritmo de retropropagación para indicar cómo una máquina debe cambiar sus parámetros internos que se utilizan para computar la representación en cada capa a partir de la representación en la capa anterior. Las redes convolucionales profundas han producido avances en el procesamiento de imágenes, vídeo, voz y audio, mientras que las redes recurrentes han hecho brillar la luz sobre datos secuenciales como el texto y el habla.