Código de Python - Clasificación_Datos_por_Regresión Logística

Imágen de perfil

Clasificación_Datos_por_Regresión Logísticagráfica de visualizaciones


Python

Publicado el 30 de Octubre del 2023 por Hilario (122 códigos)
340 visualizaciones desde el 30 de Octubre del 2023
Presentamos para nuestra aula, un sencillo ejercicio propuesto, para clasificar una serie de datos sintéticos, utilizando el sistema de regresión logística.
El ejercicio, es el siguiente:
Ejercicio_Clas_Regre_Log-Aula-28.py

La clasificación de datos por regresión logística es una técnica de aprendizaje automático que se utiliza para predecir la pertenencia de un conjunto de datos a una o más clases. Aunque el nombre "regresión" logística incluye la palabra "regresión", este enfoque se utiliza para problemas de clasificación en lugar de regresión.

La regresión logística se emplea cuando se desea predecir la probabilidad de que una observación pertenezca a una categoría o clase específica, generalmente dentro de un conjunto discreto de clases. Por lo tanto, es una técnica de clasificación que se utiliza en problemas de clasificación binaria (dos clases) y clasificación multiclase (más de dos clases). Por ejemplo, se puede usar para predecir si un correo electrónico es spam (clase positiva) o no spam (clase negativa) o para clasificar imágenes en categorías como gatos, perros o pájaros.

La regresión logística utiliza una función logística (también conocida como sigmoide) para modelar la probabilidad de pertenecer a una clase particular en función de variables de entrada (características). La función sigmoide tiene la propiedad de que produce valores entre 0 y 1, lo que es adecuado para representar probabilidades. El modelo de regresión logística utiliza coeficientes (pesos) para ponderar las características y calcular la probabilidad de pertenencia a una clase.

Durante el entrenamiento, el modelo busca ajustar los coeficientes de manera que las probabilidades predichas se ajusten lo más cerca posible a las etiquetas reales de los datos de entrenamiento. Una vez que se ha entrenado el modelo, se puede utilizar para predecir la probabilidad de pertenencia a una clase para nuevos datos y tomar decisiones basadas en esas probabilidades, como establecer un umbral para la clasificación en una clase específica.
*************************************************************************************************************
Los pasos que realizamos en el ejercicio, son los siguientes:

1-Generamos datos sintéticos donde la clase se determina por la suma de las dos características.
2-Implementamos la regresión logística desde cero sin el uso de scikit-learn, incluyendo el cálculo de 3-gradientes y la actualización de pesos.
4-Dibujamos los datos de entrada en un gráfico, junto con la línea de decisión que separa las clases.


En resumen, la regresión logística es una técnica de clasificación que modela las probabilidades de pertenencia a clases utilizando la función sigmoide y es ampliamente utilizada en una variedad de aplicaciones de aprendizaje automático.

Requerimientos

Ejercicio realizado bajo plataforma linux.
Ejecutado bajo consola con el siguiente comando
python3 Ejercicio_Clas_Regre_Log-Aula-28.py

V-0

Publicado el 30 de Octubre del 2023gráfica de visualizaciones de la versión: V-0
341 visualizaciones desde el 30 de Octubre del 2023
estrellaestrellaestrellaestrellaestrella
estrellaestrellaestrellaestrella
estrellaestrellaestrella
estrellaestrella
estrella

descarga
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
"""
Ejercicio_Clas_Regre_Log-Aula-28.py
"""
 
import numpy as np
import matplotlib.pyplot as plt
 
# Función para generar datos sintéticos
def generate_synthetic_data(num_samples):
    np.random.seed(0)
    X = np.random.rand(num_samples, 2)
    y = (X[:, 0] + X[:, 1] > 1).astype(int)
    return X, y
 
# Función de regresión logística
def logistic_regression(X, y, learning_rate, num_iterations):
    num_samples, num_features = X.shape
    weights = np.zeros(num_features)
    for _ in range(num_iterations):
        linear_model = np.dot(X, weights)
        predictions = 1 / (1 + np.exp(-linear_model))
        gradient = np.dot(X.T, (predictions - y)) / num_samples
        weights -= learning_rate * gradient
    return weights
 
# Función para predecir clases
def predict(X, weights):
    linear_model = np.dot(X, weights)
    predictions = 1 / (1 + np.exp(-linear_model))
    return (predictions >= 0.5).astype(int)
 
# Generar datos sintéticos
X, y = generate_synthetic_data(100)
 
# Añadir un sesgo a las características (columna de 1's)
X = np.column_stack([np.ones(X.shape[0]), X])
# Entrenar el modelo de regresión logística
learning_rate = 0.1
num_iterations = 1000
weights = logistic_regression(X, y, learning_rate, num_iterations)
# Predecir clases
y_pred = predict(X, weights)
# Dibujar los puntos de datos y la línea de decisión
plt.figure(figsize=(12, 5))
plt.scatter(X[:, 1], X[:, 2], c=y, cmap=plt.cm.Paired)
plt.xlabel('Característica 1')
plt.ylabel('Característica 2')
x_boundary = np.array([X[:, 1].min(), X[:, 1].max()])
y_boundary = (-weights[0] - weights[1] * x_boundary) / weights[2]
plt.plot(x_boundary, y_boundary, '-r', label='Línea de Decisión')
plt.title('Clasificación de Datos con Regresión Logística')
plt.legend()
plt.show()



Comentarios sobre la versión: V-0 (0)


No hay comentarios
 

Comentar la versión: V-0

Nombre
Correo (no se visualiza en la web)
Valoración
Comentarios...
CerrarCerrar
CerrarCerrar
Cerrar

Tienes que ser un usuario registrado para poder insertar imágenes, archivos y/o videos.

Puedes registrarte o validarte desde aquí.

Codigo
Negrita
Subrayado
Tachado
Cursiva
Insertar enlace
Imagen externa
Emoticon
Tabular
Centrar
Titulo
Linea
Disminuir
Aumentar
Vista preliminar
sonreir
dientes
lengua
guiño
enfadado
confundido
llorar
avergonzado
sorprendido
triste
sol
estrella
jarra
camara
taza de cafe
email
beso
bombilla
amor
mal
bien
Es necesario revisar y aceptar las políticas de privacidad

http://lwp-l.com/s7455