algoritmos Flashcards

(83 cards)

1
Q

¿Cuál es la mejor aplicación de la regresión lineal?

A) Detección de spam
B) Predicción de precios de casas
C) Reconocimiento facial
D) Agrupación de clientes

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

¿Qué limita a la regresión logística?

A) No funciona con variables categóricas
B) Es débil con fronteras de decisión no lineales
C) No soporta conjuntos de datos binarios
D) Es demasiado lenta con pocos datos

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

¿Cuál es una desventaja principal de los árboles de decisión?

A) Son difíciles de interpretar
B) Son muy lentos en entrenamiento
C) Tienden a sobreajustar y ser inestables
D) No sirven para regresión

A

C

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

¿Cuál es una ventaja clave de los Random Forest frente a un árbol de decisión?

A) Mayor interpretabilidad
B) Evitan el sobreajuste gracias al bagging
C) Requieren menos datos
D) Son más rápidos en inferencia

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

¿Cuál es un punto débil de los modelos de boosting?

A) No alcanzan alta precisión

B) Son muy interpretables

C) Pueden sobreajustar y requieren mucho tiempo de entrenamiento

D) No sirven para clasificación

A

C

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

¿Cuál es un escenario típico donde usar un SVM?

A) Predicción de series temporales
B) Clasificación de imágenes con pocas dimensiones
C) Reconocimiento facial con datasets grandes
D) Reducción de dimensionalidad

A

C

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

¿Por qué no es recomendable usar KNN en datasets muy grandes?

A) Porque no puede clasificar datos numéricos
B) Porque es lento al hacer predicciones
C) Porque solo funciona con datos textuales
D) Porque no soporta regresión

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Naive Bayes, ¿Cuál es una de sus principales suposiciones?

A) Las features son dependientes entre sí
B) Las features son independientes entre sí
C) Los datos deben ser numéricos
D) Siempre se entrena con árboles de decisión

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

¿Cuándo NO es recomendable usar K-Means?

A) Cuando los clusters son esféricos
B) Cuando el número de clusters está bien definido
C) Cuando los datos forman clusters no esféricos
D) Cuando se necesita agrupación rápida

A

C

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

¿Cuál es la utilidad principal de PCA?

A) Clasificar datos
B) Reducir la dimensionalidad conservando la mayor varianza
C) Detectar anomalías
D) Generar árboles de decisión

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

¿Cuál es una limitación de las redes neuronales tradicionales (MLP)?

A) No pueden entrenarse con datos numéricos
B) Necesitan grandes cantidades de datos
C) Son muy interpretables
D) No se pueden paralelizar

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

¿Para qué tipo de datos son ideales las CNN?

A) Datos de texto
B) Datos de audio
C) Datos de imagen y espaciales
D) Datos tabulares

A

C

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

¿Cuál es la mayor limitación de las RNN clásicas?

A) No sirven para datos secuenciales
B) Son demasiado rápidas
C) El problema del gradiente desvanecido en secuencias largas
D) No funcionan con embeddings

A

C

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Transformers (BERT, GPT)- ¿Qué característica los hace superiores a las RNN?

A) Usan convoluciones en lugar de atenciones
B) Capturan dependencias largas gracias al mecanismo de atención
C) Requieren pocos datos
D) Son más interpretables

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Autoencoders-¿Cuál es una de sus aplicaciones más comunes?

A) Predicción de precios
B) Compresión y detección de anomalías
C) Clasificación de imágenes
D) Clustering esférico

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

DBSCAN-¿Qué ventaja tiene sobre K-Means?

A) Es más interpretable
B) Puede encontrar clusters de formas arbitrarias y manejar ruido
C) Siempre requiere definir el número de clusters
D) Es más rápido en todos los casos

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

¿Cuál es el algoritmo más adecuado para predecir precios de casas y por qué no se recomienda cuando los datos tienen fuerte no linealidad?

A) Árbol de Decisión
B) Regresión Lineal
C) Red Neuronal
D) Clustering de K-Means

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

¿Qué característica clave diferencia la Regresión Logística de la Regresión Lineal?

A) El tipo de datos de entrada
B) Su uso para clasificación binaria
C) El uso de bagging
D) La estructura recursiva

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

¿Por qué los árboles de decisión pueden ser inestables en conjuntos de datos ruidosos?

A) Tienen interpretabilidad baja
B) Se sobreajustan fácilmente
C) Requieren muchos datos
D) Tienen alta capacidad de computación

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

¿Qué ventaja principal proporciona el Random Forest sobre el árbol de decisión individual?

A) Más rápido en tiempo real
B) Mayor robustez y precisión
C) Mejor para compresión de imágenes
D) Menos requerimiento de datos

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

¿En qué caso no es recomendable usar Gradient Boosting?

A) Cuando se requiere alta interpretabilidad
B) En sistemas de recomendación
C) Cuando los datos presentan alta no linealidad
D) Para agrupamiento no supervisado

A

A

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

¿Cuál es la principal desventaja del uso de SVM en grandes volúmenes de datos?

A) Bajo ajuste en casos de noise
B) Altos costes computacionales
C) Sensible a la escala de las características
D) Usa bagging

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

¿Por qué KNN puede ser lento en problemas con muchísimos datos?

A) Por el preprocesamiento extenso
B) Por la naturaleza de la búsqueda de distancia
C) Por la necesidad de interpretabilidad
D) Usa boosting

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

¿En qué tipo de situaciones es más útil Naive Bayes?

A) Recomendaciones personalizadas
B) Clasificación de texto y sentimiento
C) Series temporales
D) Reducción dimensional

A

B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
¿Para qué tipo de tarea se recomienda usar PCA (Análisis de Componentes Principales)? A) Recomendación de productos B) Reducción de dimensionalidad de los datos C) Predecir series temporales D) Clasificación binaria
B
26
¿Por qué DBSCAN es adecuado para conjuntos de datos con densidades variables? A) Por su velocidad de cálculo B) Por su tolerancia al ruido y flexibilidad en las formas de los clusters C) Porque requiere especificar K D) Por ser interpretativo
B
27
¿Qué ventaja tiene una red neuronal convolucional (CNN) respecto a un perceptrón multicapa (MLP) para imágenes? A) Mejor para agrupamiento B) Utiliza convoluciones y pooling para captar patrones espaciales C) Más rápido en clustering D) Mejor para reducción dimensional
B
28
¿Por qué los transformadores como BERT o GPT requieren entrenar con grandes volúmenes de datos? A) Por la naturaleza de autoencoders B) Por el mecanismo de atención y codificación posicional C) Porque sobreajustan fácilmente D) Porque usan pooling convolucional
B
29
¿Para qué aplicaciones reales se recomienda el uso de autoencoders? A) Predicción de precios B) Detección de anomalías y compresión de datos C) Clustering jerárquico D) Series temporales
B
30
¿Cuál es una limitación importante de las RNN (Redes Neuronales Recurrentes) en tareas muy largas? A) Bajo umbral de error B) Gradiente evanescente C) Mal procesamiento de imágenes D) Falta de clusters flexibles
B
31
¿Qué tipo de algoritmo es más adecuado para predecir el precio de una vivienda basándose en características como el tamaño y la ubicación? a) Regresión Logística b) Regresión Lineal c) K-Means d) Árbol de Decisión
B
32
Si quisieras clasificar correos electrónicos como 'spam' o 'no spam', ¿cuál de los siguientes algoritmos supervisados sería una elección apropiada para esta tarea de clasificación binaria? a) K-Means b) Regresión Logística c) PCA (Análisis de Componentes Principales) d) Regresión Lineal
B
33
¿Cuál de las siguientes afirmaciones sobre los Árboles de Decisión es VERDADERA según la tabla? a) Son difíciles de interpretar. b) Son robustos y tienen una alta precisión por sí solos. c) Son fáciles de interpretar. d) Requieren que los datos sean linealmente separables.
C
34
El algoritmo Random Forest es una mejora de los Árboles de Decisión. ¿Cuál es su principal ventaja? a) Es más rápido y menos complejo. b) Es más fácil de interpretar. c) Ofrece una alta precisión y es robusto. d) Funciona mejor con datos de alta dimensionalidad.
C
35
¿Qué algoritmo se considera de "alto rendimiento" y utiliza "árboles aditivos" para minimizar la pérdida, siendo muy popular en competiciones de machine learning? a) SVM (Máquinas de Vectores de Soporte) b) KNN (K-Vecinos más Cercanos) c) Gradient Boosting d) Naive Bayes
C
36
¿Cuál es la lógica principal detrás del algoritmo SVM (Máquinas de Vectores de Soporte)? a) Se basa en el teorema de Bayes. b) Agrupa los datos en clústeres. c) Maximiza el margen entre las clases. d) Utiliza el voto por mayoría de los vecinos más cercanos.
C
37
Si necesitas un algoritmo simple y rápido para un sistema de recomendación basado en la similitud de usuarios, ¿cuál de los siguientes sería una buena opción? a) Redes Neuronales (MLP) b) KNN (K-Vecinos más Cercanos) c) Hierarchical Clustering d) Autoencoders
B
38
¿Cuál es la principal asunción (y a la vez una limitación) del algoritmo Naive Bayes, especialmente relevante en el análisis de sentimiento de texto? a) Que las características son dependientes entre sí. b) Que las características son independientes entre sí. c) Que los datos deben tener una distribución esférica. d) Que los datos no deben ser ruidosos.
B
39
¿Qué algoritmo no supervisado es adecuado para la segmentación de clientes, agrupándolos en función de su comportamiento de compra? a) Regresión Lineal b) K-Means c) SVM d) Random Forest
B
40
¿Cuál de estos algoritmos es de Reducción de Dimensionalidad y se utiliza para la compresión de imágenes? a) DBSCAN b) CNN (Red Neuronal Convolucional) c) PCA (Análisis de Componentes Principales) d) RNN (Red Neuronal Recurrente)
C
41
¿Qué tipo de Red Neuronal es especialmente excelente para el procesamiento de imágenes y tareas como la conducción autónoma? a) RNN (Red Neuronal Recurrente) b) MLP (Perceptrón Multicapa) c) CNN (Red Neuronal Convolucional) d) Autoencoders
C
42
Para modelar secuencias de datos, como la predicción del precio de las acciones a lo largo del tiempo, ¿qué algoritmo es el más adecuado? a) K-Means b) SVM c) RNN (Red Neuronal Recurrente) d) PCA
C
43
Modelos de lenguaje avanzados como ChatGPT y BERT se basan en una arquitectura de red neuronal específica. ¿Cuál es? a) Autoencoders b) Transformer c) DBSCAN d) CNN
B
44
Si tu objetivo es la detección de anomalías o la compresión de datos mediante una red neuronal no supervisada, ¿qué algoritmo elegirías? a) Gradient Boosting b) Hierarchical Clustering c) Autoencoders d) Naive Bayes
C
45
¿Qué algoritmo de clustering no supervisado es tolerante al ruido y puede encontrar clústeres de formas arbitrarias basándose en la densidad? a) K-Means b) Hierarchical Clustering c) PCA d) DBSCAN
D
46
¿Cuál es el tipo de aprendizaje que utiliza la regresión lineal? a) Por refuerzo b) Supervisado c) Semi-supervisado d) No supervisado
B
47
¿Qué fórmula representa la regresión lineal? a) y = Σ (i=1 hasta n) wi * xi b) y = 1 / (1 + e^(-x)) c) y = b0 + b1*x + e d) y = softmax(x)
C
48
¿Cuál es el principal uso de la regresión logística? a) Clasificación binaria b) Clasificación multiclase c) Clustering d) Reducción de dimensionalidad
A
49
¿Qué algoritmo divide recursivamente los datos en ramas binarias? a) Decision Tree b) SVM c) Gradient Boosting d) Random Forest
A
50
¿Qué técnica usa múltiples árboles entrenados de forma independiente? a) KNN b) Gradient Boosting c) SVM d) Random Forest
D
51
¿Cuál es la lógica principal de Gradient Boosting? a) Agregar árboles para minimizar la función de pérdida b) Maximizar el margen entre clases c) Aplicar la regla de Bayes d) Minimizar la distancia entre vecinos
A
52
¿Qué algoritmo maximiza el margen entre clases? a) MLP b) SVM c) KNN d) Naive Bayes
B
53
¿Qué algoritmo se basa en la distancia entre puntos para clasificar? a) SVM b) KNN c) Naive Bayes d) PCA
B
54
¿Qué algoritmo usa el teorema de Bayes para clasificar textos? a) Transformer b) MLP c) Naive Bayes d) Logistic Regression
C
55
¿Cuál es el objetivo principal de K-Means? a) Maximizar el margen entre clases b) Reducir la dimensionalidad c) Clasificar datos binarios d) Minimizar la distancia intra-cluster
D
56
¿Qué algoritmo construye un dendrograma para agrupar datos? a) PCA b) Hierarchical Clustering c) DBSCAN d) K-Means
B
57
¿Qué técnica de reducción de dimensionalidad usa descomposición en valores propios? a) GAN b) MLP c) t-SNE d) PCA
D
58
¿Qué técnica usa similitudes probabilísticas entre puntos? a) t-SNE b) PCA c) K-Means d) SVM
A
59
¿Qué red neuronal usa retropropagación para aprender? a) MLP b) Naive Bayes c) Transformer d) GAN
A
60
¿Qué algoritmo se basa en el mecanismo de atención para procesar secuencias? a) MLP b) Gradient Boosting c) Transformer d) SVM
C
61
¿Cuál es el mejor caso de uso para Linear Regression, según la tabla, y por qué se asume linealidad en sus suposiciones? A) Clasificación binaria, porque maneja probabilidades. B) Predicción de valores continuos, porque asume linealidad e independencia. C) Clustering de datos, porque minimiza distancias intra-cluster. D) Modelado de secuencias, porque usa bucles de retroalimentación.
B
62
En Logistic Regression, ¿cuál es la fórmula clave y por qué no se recomienda usarla cuando los datos son altamente no-lineales? A) Y = b0 + b1X + b2X2 + ..., porque es lineal y rápida. B) P = 1 / (1 + e^-(b0 + b1X + ...)), porque usa log-odds y es probabilística. C) Distancia basada en mayoría de votos, porque es no paramétrica. D) Maximización de margen usando kernel trick, porque separa hiperplanos.
B
63
¿Cuál es una desventaja clave de Decision Tree y un escenario donde NO se debe usar, basado en la tabla? A) Overfitting y datasets complejos, porque es ensemble y robusto. B) Overfitting y datasets noisy/complex, porque es recursivo y propenso a inestabilidad. C) Lento en grandes datos, porque usa kernel trick. D) Necesita K, porque es clustering esférico.
B
64
¿Qué lógica clave usa Random Forest y cuál es su pro principal comparado con un solo Decision Tree? A) Bagging + averaging trees, alta accuracy y robusto a overfitting. B) Additive trees minimizing loss, state-of-the-art accuracy pero necesita tuning. C) Distance-based majority vote, simple pero slow. D) Maximize margin using kernel, separability en high dimensions.
A
65
¿Por qué Gradient Boosting es bueno para performance modeling y cuál es su con principal? A) Porque usa bagging y es rápido, pero overfittea. B) Additive trees minimizing loss, state-of-the-art accuracy, pero overfittea y necesita tuning. C) Porque es density-based, noise tolerant pero falla en varying density. D) Weighted sums + activation, non-linear power pero needs large data.
B
66
¿En qué consiste la lógica clave de SVM y por qué no se recomienda para large noisy datasets? A) Distance-based majority vote, simple pero slow en large data. B) Maximize margin using kernel trick, works in high dimensions pero slow en large data. C) Bayes theorem + independent features, fast para text pero correlated features. D) Minimize intra-cluster distance, fast pero needs K.
B
67
¿Cuál es un pro de KNN y un escenario real donde se usa, pero por qué es sensible al ruido? A) Simple, no training phase; recommender systems; pero slow y noisy sensitive. B) Fast con text data; sentiment analysis; pero falls con correlated features. C) Noise reduction; image compression; pero hard to interpret. D) Sequential structure; stock prediction; pero vanishing gradient.
A
68
¿Por qué Naive Bayes asume independencia de features y cuál es su con cuando las features están correlacionadas? A) Porque usa minimize intra-cluster, fast pero needs K y sensitive to scale. B) Bayes theorem + independent features, fast con text pero falls con correlated features. C) Eigenvectors of covariance, noise reduction pero hard to interpret. D) Convolution + pooling layers, excellent para images pero high resource demand.
B
69
¿Cuál es el tipo de K-Means y por qué no se usa en data no-esférica? A) Supervisado, minimize intra-cluster distance, fast pero needs K y no para non-spherical. B) Unsupervised, nested dendrogram, no need K pero memory intensive. C) Dim. reduction, eigenvectors, noise reduction pero all features important. D) Unsupervised, density-based, noise tolerant pero fails en varying density.
A
70
¿Qué asume Hierarchical Clustering y cuál es su pro comparado con K-Means? A) Spherical clusters, fast pero needs K. B) Nested dendrogram, no need K, visual pero memory intensive. C) Large variance important, speed-up pero hard interpret. D) Encoder-decoder + reconstruction loss, effective denoising pero can overfit.
B
71
¿Para qué se usa PCA y por qué no cuando all features are important? A) Reducing dimensionality, eigenvectors of covariance, noise reduction pero hard interpret y no cuando features important. B) Complex pattern modeling, weighted sums, non-linear power pero needs large data. C) Image/video/spatial data, convolution + pooling, excellent para images pero high demand. D) Arbitrary shape clustering, density-based, noise tolerant pero fails varying density.
A
72
¿Cuál es la lógica de Neural Networks y un con clave? A) Weighted sums + activation functions, non-linear power pero needs large data y tuning. B) Feedback loops over time, sequential structure pero vanishing gradient. C) Attention mechanism + position encoding, long context pero heavy compute. D) Encoder-decoder + reconstruction, effective denoising pero black-box.
A
73
¿Por qué CNN es excelente para images y cuál es su real-world example? A) Porque usa feedback loops, time-series ready, ej. stock prediction. B) Convolution + pooling layers, grid-like data, ej. self-driving vision pero high resource demand. C) Attention + position, large training data, ej. ChatGPT/translation. D) Density-based growing, cluster density, ej. geo-spatial clustering.
B
74
¿Qué asume RNN y por qué no usarlo en long sequences? A) Sequential structure, feedback loops over time, time-series ready pero vanishing gradient en long sequences. B) Attention mechanism, long context, fast pero heavy compute. C) Symmetric network, effective denoising pero can overfit. D) Minimize intra-cluster, fast pero needs K.
A
75
¿Cuál es el tipo de Transformer y un pro/con clave? A) Supervised, attention + position encoding, long context pero heavy compute y large model. B) Unsupervised, encoder-decoder + loss, effective denoising pero black-box. C) Unsupervised, density-based, noise tolerant pero fails varying density. D) Dim. reduction, eigenvectors, speed-up pero hard interpret.
A
76
¿Por qué Autoencoders son buenos para anomaly detection y cuál es su con? A) Compression & anomaly, encoder-decoder + reconstruction loss, effective denoising pero can overfit y black-box. B) Arbitrary shape clustering, density-based growing, noise tolerant pero fails varying density. C) Bayes theorem, fast text pero correlated features. D) Maximize margin, high dimensions pero slow large data.
A
77
¿Cuál es la lógica de DBSCAN y por qué falla en varying density? A) Minimize intra-cluster, spherical, fast pero needs K. B) Nested dendrogram, no need K pero memory intensive. C) Density-based region growing, cluster density, noise tolerant pero fails on varying density. D) Weighted sums, non-linear pero needs large data.
C
78
Un analista de datos quiere predecir el precio de una casa basándose en su superficie en metros cuadrados. Asume que a más metros cuadrados, mayor será el precio, siguiendo una tendencia recta. ¿Qué algoritmo es el más adecuado para este problema y por qué? a) Logistic Regression, porque predice una categoría (si la casa es cara o barata). b) K-Means, porque agrupará las casas en clústeres de precios similares. c) Linear Regression, porque se utiliza para predecir un valor continuo (el precio) y asume una relación lineal entre las variables. d) Decision Tree, porque puede dividir los datos en función de la superficie.
C
79
Estás construyendo un filtro de spam para correos electrónicos. Tu modelo necesita ser rápido y funcionar bien con texto. El algoritmo que eliges asume que la presencia de una palabra en un email (por ejemplo, "oferta") es independiente de la presencia de otra (por ejemplo, "gratis"). ¿De qué algoritmo hablamos? a) Support Vector Machine (SVM), porque busca el margen máximo entre spam y no spam. b) Naive Bayes, porque se basa en el teorema de Bayes y asume la independencia de las características (las palabras). c) Recurrent Neural Network (RNN), porque procesa el texto de forma secuencial. d) K-Nearest Neighbors (KNN), porque clasifica un email basándose en los emails más similares.
B
80
Imagina que tienes datos de la ubicación de clientes en un mapa de una ciudad y quieres identificar las zonas comerciales densas, que pueden tener formas irregulares y no ser circulares. ¿Qué algoritmo de clustering sería más apropiado que K-Means y por qué? a) Hierarchical Clustering, porque crea un dendrograma de todas las ubicaciones. b) Principal Component Analysis (PCA), porque reduce el número de dimensiones de los datos de ubicación. c) DBSCAN, porque puede encontrar clústeres de formas arbitrarias y es resistente al ruido (clientes en zonas aisladas). d) K-Means, porque es el más simple y rápido de implementar para agrupar clientes.
C
81
Un banco utiliza un modelo de Decision Tree para decidir si aprueba o no un préstamo. El modelo funciona muy bien con los datos de entrenamiento, pero falla al predecir con nuevos clientes, memorizando casi todos los casos pasados. ¿Qué problema sufre este modelo y qué algoritmo "Ensemble" se creó para solucionarlo? a) Sufre de subajuste (underfitting), y se soluciona con Linear Regression. b) Sufre de sobreajuste (overfitting), y se soluciona con Random Forest. c) Sufre de baja precisión, y se soluciona con K-Means. d) Sufre de dependencia de características, y se soluciona con Naive Bayes.
B
82
Una empresa de tecnología está desarrollando dos proyectos: uno es un coche autónomo que necesita identificar peatones y señales de tráfico a partir de imágenes de vídeo, y el otro es un modelo para predecir el precio de las acciones de la próxima semana basándose en datos históricos. ¿Qué arquitecturas de redes neuronales serían las más adecuadas para cada tarea, respectivamente? a) CNN para la predicción de acciones y RNN para la identificación de peatones. b) MLP (Multilayer Perceptron) para ambas tareas. c) CNN para la identificación de peatones y RNN para la predicción de acciones. d) Autoencoder para la identificación de peatones y Transformer para la predicción de acciones.
C
83
¿Cuál es el principio fundamental de funcionamiento de una Support Vector Machine (SVM) para clasificar datos? a) Votar entre los 'k' vecinos más cercanos para decidir la clase. b) Encontrar la línea (o hiperplano) que maximiza la distancia (margen) a los puntos de datos más cercanos de cada clase. c) Construir una serie de árboles de decisión de forma secuencial, donde cada árbol corrige los errores del anterior. d) Calcular la probabilidad de que un dato pertenezca a una clase basándose en el teorema de Bayes.
B