logo

Regresión lineal en aprendizaje automático

Aprendizaje automático es una rama de la inteligencia artificial que se centra en el desarrollo de algoritmos y modelos estadísticos que pueden aprender de los datos y hacer predicciones sobre ellos. Regresión lineal También es un tipo de algoritmo de aprendizaje automático, más específicamente un algoritmo de aprendizaje automático supervisado que aprende de los conjuntos de datos etiquetados y asigna los puntos de datos a las funciones lineales más optimizadas. que se puede utilizar para la predicción de nuevos conjuntos de datos.

En primer lugar, debemos saber qué son los algoritmos de aprendizaje automático supervisados. Es un tipo de aprendizaje automático en el que el algoritmo aprende de datos etiquetados. Datos etiquetados significa el conjunto de datos cuyo valor objetivo respectivo ya se conoce. El aprendizaje supervisado tiene dos tipos:

  • Clasificación : Predice la clase del conjunto de datos en función de la variable de entrada independiente. La clase son los valores categóricos o discretos. ¿Como que la imagen de un animal es un gato o un perro?
  • Regresión : Predice las variables de salida continuas en función de la variable de entrada independiente. como la predicción de los precios de la vivienda en función de diferentes parámetros como la antigüedad de la vivienda, la distancia a la carretera principal, la ubicación, la zona, etc.

Aquí, discutiremos uno de los tipos más simples de regresión, es decir, Regresión lineal.



Tabla de contenidos

¿Qué es la regresión lineal?

La regresión lineal es un tipo de aprendizaje automático supervisado Algoritmo que calcula la relación lineal entre la variable dependiente y una o más características independientes ajustando una ecuación lineal a los datos observados.

Cuando sólo hay una característica independiente, se le conoce como Regresión lineal simple , y cuando hay más de una característica, se conoce como Regresión lineal múltiple .

De manera similar, cuando hay una sola variable dependiente, se considera Regresión lineal univariante , mientras que cuando hay más de una variable dependiente, se conoce como Regresión multivariada .

¿Por qué es importante la regresión lineal?

La interpretabilidad de la regresión lineal es una fortaleza notable. La ecuación del modelo proporciona coeficientes claros que aclaran el impacto de cada variable independiente sobre la variable dependiente, lo que facilita una comprensión más profunda de la dinámica subyacente. Su simplicidad es una virtud, ya que la regresión lineal es transparente, fácil de implementar y sirve como concepto fundamental para algoritmos más complejos.

La regresión lineal no es simplemente una herramienta predictiva; constituye la base de varios modelos avanzados. Técnicas como la regularización y las máquinas de vectores de soporte se inspiran en la regresión lineal, ampliando su utilidad. Además, la regresión lineal es una piedra angular en la prueba de supuestos, ya que permite a los investigadores validar supuestos clave sobre los datos.

Tipos de regresión lineal

Hay dos tipos principales de regresión lineal:

Regresión lineal simple

Esta es la forma más simple de regresión lineal e involucra solo una variable independiente y una variable dependiente. La ecuación de regresión lineal simple es:
y=eta_{0}+eta_{1}X
dónde:

  • Y es la variable dependiente
  • X es la variable independiente
  • β0 es la intersección
  • β1 es la pendiente

Regresión lineal múltiple

Esto involucra más de una variable independiente y una variable dependiente. La ecuación para la regresión lineal múltiple es:
y=eta_{0}+eta_{1}X+eta_{2}X+………eta_{n}X
dónde:

  • Y es la variable dependiente
  • X1, X2,…, Xp son las variables independientes
  • β0 es la intersección
  • β1, β2,…, βn son las pendientes

El objetivo del algoritmo es encontrar la mejor línea de ajuste ecuación que puede predecir los valores en función de las variables independientes.

En el conjunto de registros de regresión están presentes con valores X e Y y estos valores se usan para aprender una función, por lo que si desea predecir Y a partir de una X desconocida, puede usar esta función aprendida. En la regresión tenemos que encontrar el valor de Y. Por lo tanto, se requiere una función que prediga Y continua en el caso de regresión dada X como características independientes.

Bourne Again Shell

¿Cuál es la mejor Línea Fit?

Nuestro objetivo principal al utilizar la regresión lineal es localizar la línea de mejor ajuste, lo que implica que el error entre los valores previstos y reales debe mantenerse al mínimo. Habrá el menor error en la línea de mejor ajuste.

La mejor ecuación de Fit Line proporciona una línea recta que representa la relación entre las variables dependientes e independientes. La pendiente de la línea indica cuánto cambia la variable dependiente por un cambio unitario en las variables independientes.

Regresión lineal en aprendizaje automático

Regresión lineal


Aquí, Y se denomina variable dependiente o objetivo y X se denomina variable independiente, también conocida como predictor de Y. Hay muchos tipos de funciones o módulos que se pueden utilizar para la regresión. Una función lineal es el tipo de función más simple. Aquí, X puede ser una característica única o múltiples características que representan el problema.

La regresión lineal realiza la tarea de predecir el valor de una variable dependiente (y) en función de una variable independiente dada (x)). De ahí el nombre de Regresión Lineal. En la figura anterior, X (entrada) es la experiencia laboral e Y (salida) es el salario de una persona. La recta de regresión es la recta que mejor se ajusta a nuestro modelo.

Utilizamos la función de costo para calcular los mejores valores a fin de obtener la línea de mejor ajuste, ya que diferentes valores para los pesos o el coeficiente de las líneas dan como resultado diferentes líneas de regresión.

comparar en java

Función de hipótesis en regresión lineal

Como asumimos anteriormente, nuestra característica independiente es la experiencia, es decir, X y el salario respectivo Y es la variable dependiente. Supongamos que existe una relación lineal entre X e Y, entonces el salario se puede predecir usando:

hat{Y} = heta_1 + heta_2X

O

hat{y}_i = heta_1 + heta_2x_i

Aquí,

  • y_i epsilon Y ;; (i= 1,2, cdots , n) son etiquetas para datos (aprendizaje supervisado)
  • x_i epsilon X ;; (i= 1,2, cdots , n) son los datos de entrenamiento independientes de entrada (univariados: una variable de entrada (parámetro))
  • hat{y_i} epsilon hat{Y} ;; (i= 1,2, cdots , n) son los valores predichos.

El modelo obtiene la mejor línea de ajuste de regresión al encontrar el mejor θ1y θ2valores.

  • i 1 : interceptar
  • i 2 : coeficiente de x

Una vez que encontremos el mejor θ1y θ2valores, obtenemos la línea de mejor ajuste. Entonces, cuando finalmente usemos nuestro modelo para la predicción, predecirá el valor de y para el valor de entrada de x.

Cómo actualizar θ 1 y θ 2 valores para obtener la línea de mejor ajuste?

Para lograr la línea de regresión de mejor ajuste, el modelo tiene como objetivo predecir el valor objetivohat{Y} tal que la diferencia de error entre el valor predichohat{Y} y el valor verdadero Y es mínimo. Entonces, es muy importante actualizar el θ1y θ2valores, para alcanzar el mejor valor que minimice el error entre el valor y predicho (pred) y el valor y verdadero (y).

minimizefrac{1}{n}sum_{i=1}^{n}(hat{y_i}-y_i)^2

Función de costo para regresión lineal

El función de costo o el función de pérdida no es más que el error o la diferencia entre el valor predichohat{Y} y el valor verdadero Y.

En regresión lineal, el Error cuadrático medio (MSE) Se emplea la función de costo, que calcula el promedio de los errores al cuadrado entre los valores predichos.hat{y}_i y los valores reales{y}_i . El propósito es determinar los valores óptimos para la intersección. heta_1 y el coeficiente de la característica de entrada. heta_2 proporcionando la línea de mejor ajuste para los puntos de datos dados. La ecuación lineal que expresa esta relación eshat{y}_i = heta_1 + heta_2x_i .

La función MSE se puede calcular como:

ext{Cost function}(J) = frac{1}{n}sum_{n}^{i}(hat{y_i}-y_i)^2

Utilizando la función MSE, se aplica el proceso iterativo de descenso de gradiente para actualizar los valores de heta_1 & heta_2 . Esto garantiza que el valor de MSE converja a los mínimos globales, lo que significa el ajuste más preciso de la línea de regresión lineal al conjunto de datos.

Este proceso implica ajustar continuamente los parámetros ( heta_1) y ( heta_2) en función de los gradientes calculados a partir del MSE. El resultado final es una línea de regresión lineal que minimiza las diferencias cuadráticas generales entre los valores previstos y reales, proporcionando una representación óptima de la relación subyacente en los datos.

Descenso de gradiente para regresión lineal

Se puede entrenar un modelo de regresión lineal utilizando el algoritmo de optimización. descenso de gradiente modificando iterativamente los parámetros del modelo para reducir la error cuadrático medio (MSE) del modelo en un conjunto de datos de entrenamiento. Para actualizar θ1y θ2valores para reducir la función de costo (minimizando el valor RMSE) y lograr la línea de mejor ajuste que el modelo utiliza Descenso de gradiente. La idea es comenzar con θ aleatorio.1y θ2valores y luego actualizar iterativamente los valores, alcanzando el costo mínimo.

versión java linux

Un gradiente no es más que una derivada que define los efectos sobre las salidas de la función con un poco de variación en las entradas.

Diferenciamos la función de costo (J) con respecto a heta_1

egin {aligned} {J}’_{ heta_1} &=frac{partial J( heta_1, heta_2)}{partial heta_1} &= frac{partial}{partial heta_1} left[frac{1}{n} left(sum_{i=1}^{n}(hat{y}_i-y_i)^2 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_1}(hat{y}_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_1}( heta_1 + heta_2x_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(1+0-0 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}(hat{y}_i-y_i) left(2 ight ) ight] &= frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i) end {aligned}

Diferenciamos la función de costo (J) con respecto a heta_2

egin {aligned} {J}’_{ heta_2} &=frac{partial J( heta_1, heta_2)}{partial heta_2} &= frac{partial}{partial heta_2} left[frac{1}{n} left(sum_{i=1}^{n}(hat{y}_i-y_i)^2 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_2}(hat{y}_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(frac{partial}{partial heta_2}( heta_1 + heta_2x_i-y_i) ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}2(hat{y}_i-y_i) left(0+x_i-0 ight ) ight] &= frac{1}{n}left[sum_{i=1}^{n}(hat{y}_i-y_i) left(2x_i ight ) ight] &= frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i)cdot x_i end {aligned}

Encontrar los coeficientes de una ecuación lineal que mejor se ajuste a los datos de entrenamiento es el objetivo de la regresión lineal. Moviéndose en la dirección del gradiente negativo del error cuadrático medio con respecto a los coeficientes, los coeficientes se pueden cambiar. Y el respectivo intercepto y coeficiente de X será sialpha es la tasa de aprendizaje.

Descenso de gradiente

egin{aligned} heta_1 &= heta_1 – alpha left( {J}’_{ heta_1} ight) &= heta_1 -alpha left( frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i) ight) end{aligned} egin{aligned} heta_2 &= heta_2 – alpha left({J}’_{ heta_2} ight) &= heta_2 – alpha left(frac{2}{n}sum_{i=1}^{n}(hat{y}_i-y_i)cdot x_i ight) end{aligned}

Supuestos de regresión lineal simple

La regresión lineal es una herramienta poderosa para comprender y predecir el comportamiento de una variable; sin embargo, debe cumplir algunas condiciones para ser soluciones precisas y confiables.

  1. Linealidad : Las variables independientes y dependientes tienen una relación lineal entre sí. Esto implica que los cambios en la variable dependiente siguen a los de las variables independientes de forma lineal. Esto significa que debe haber una línea recta que pueda trazarse a través de los puntos de datos. Si la relación no es lineal, entonces la regresión lineal no será un modelo preciso.
  2. Independencia : Las observaciones del conjunto de datos son independientes entre sí. Esto significa que el valor de la variable dependiente para una observación no depende del valor de la variable dependiente para otra observación. Si las observaciones no son independientes, entonces la regresión lineal no será un modelo preciso.
  3. homocedasticidad : En todos los niveles de las variables independientes, la varianza de los errores es constante. Esto indica que la cantidad de la(s) variable(s) independiente(s) no tiene impacto en la varianza de los errores. Si la varianza de los residuos no es constante, entonces la regresión lineal no será un modelo preciso.

    Homoscedasticidad en regresión lineal

  4. Normalidad : Los residuos deben distribuirse normalmente. Esto significa que los residuos deben seguir una curva en forma de campana. Si los residuos no se distribuyen normalmente, entonces la regresión lineal no será un modelo preciso.

Supuestos de regresión lineal múltiple

Para la regresión lineal múltiple, se aplican los cuatro supuestos de la regresión lineal simple. Además de esto, a continuación se muestran algunos más:

  1. Sin multicolinealidad : No existe una alta correlación entre las variables independientes. Esto indica que existe poca o ninguna correlación entre las variables independientes. La multicolinealidad ocurre cuando dos o más variables independientes están altamente correlacionadas entre sí, lo que puede dificultar la determinación del efecto individual de cada variable sobre la variable dependiente. Si hay multicolinealidad, entonces la regresión lineal múltiple no será un modelo preciso.
  2. Aditividad: El modelo supone que el efecto de los cambios en una variable predictiva sobre la variable de respuesta es consistente independientemente de los valores de las otras variables. Este supuesto implica que no existe interacción entre variables en sus efectos sobre la variable dependiente.
  3. Selección de características: En la regresión lineal múltiple, es fundamental seleccionar cuidadosamente las variables independientes que se incluirán en el modelo. Incluir variables irrelevantes o redundantes puede llevar a un sobreajuste y complicar la interpretación del modelo.
  4. Sobreajuste: El sobreajuste ocurre cuando el modelo se ajusta demasiado a los datos de entrenamiento, capturando ruido o fluctuaciones aleatorias que no representan la verdadera relación subyacente entre las variables. Esto puede provocar un rendimiento deficiente de la generalización de datos nuevos e invisibles.

Multicolinealidad

Multicolinealidad Es un fenómeno estadístico que ocurre cuando dos o más variables independientes en un modelo de regresión múltiple están altamente correlacionadas, lo que dificulta evaluar los efectos individuales de cada variable sobre la variable dependiente.

La detección de multicolinealidad incluye dos técnicas:

  • Matriz de correlación: Examinar la matriz de correlación entre las variables independientes es una forma común de detectar multicolinealidad. Las correlaciones altas (cercanas a 1 o -1) indican una posible multicolinealidad.
  • VIF (Factor de inflación de varianza): VIF es una medida que cuantifica cuánto aumenta la varianza de un coeficiente de regresión estimado si sus predictores están correlacionados. Un VIF alto (normalmente superior a 10) sugiere multicolinealidad.

Métricas de evaluación para regresión lineal

Una variedad de medidas de evaluación se puede utilizar para determinar la solidez de cualquier modelo de regresión lineal. Estas métricas de evaluación a menudo dan una indicación de qué tan bien el modelo está produciendo los resultados observados.

Las medidas más comunes son:

Error cuadrático medio (MSE)

Error cuadrático medio (MSE) es una métrica de evaluación que calcula el promedio de las diferencias al cuadrado entre los valores reales y previstos para todos los puntos de datos. La diferencia se eleva al cuadrado para garantizar que las diferencias negativas y positivas no se cancelen entre sí.

MSE = frac{1}{n}sum_{i=1}^{n}left ( y_i – widehat{y_{i}} ight )^2

Aquí,

  • n es el número de puntos de datos.
  • yies el valor real u observado para ithpunto de datos.
  • widehat{y_{i}} es el valor predicho para ithpunto de datos.

MSE es una forma de cuantificar la precisión de las predicciones de un modelo. MSE es sensible a los valores atípicos ya que los errores grandes contribuyen significativamente a la puntuación general.

Error absoluto medio (MAE)

Error absoluto medio es una métrica de evaluación utilizada para calcular la precisión de un modelo de regresión. MAE mide la diferencia absoluta promedio entre los valores previstos y los valores reales.

Matemáticamente, MAE se expresa como:

MAE =frac{1}{n} sum_{i=1}^{n}|Y_i – widehat{Y_i}|

Aquí,

  • N es el numero de observaciones
  • Yirepresenta los valores reales.
  • widehat{Y_i} representa los valores predichos

Un valor MAE más bajo indica un mejor rendimiento del modelo. No es sensible a los valores atípicos ya que consideramos diferencias absolutas.

Error cuadrático medio (RMSE)

La raíz cuadrada de la varianza de los residuos es la Error cuadrático medio . Describe qué tan bien los puntos de datos observados coinciden con los valores esperados, o el ajuste absoluto del modelo a los datos.


En notación matemática se puede expresar como:
RMSE=sqrt{frac{RSS}{n}}=sqrtfrac{{{sum_{i=2}^{n}(y^{actual}_{i}}- y_{i}^{predicted})^2}}{n}
En lugar de dividir el número total de puntos de datos del modelo por el número de grados de libertad, se debe dividir la suma de los residuos al cuadrado para obtener una estimación insesgada. Entonces, esta cifra se denomina error estándar residual (RSE).

objeto de matriz en java

En notación matemática se puede expresar como:
RMSE=sqrt{frac{RSS}{n}}=sqrtfrac{{{sum_{i=2}^{n}(y^{actual}_{i}}- y_{i}^{predicted})^2}}{(n-2)}

RSME no es una métrica tan buena como R-cuadrado. El error cuadrático medio puede fluctuar cuando las unidades de las variables varían, ya que su valor depende de las unidades de las variables (no es una medida normalizada).

Coeficiente de determinación (R-cuadrado)

R-cuadrado Es una estadística que indica cuánta variación puede explicar o capturar el modelo desarrollado. Siempre está en el rango de 0 a 1. En general, cuanto mejor coincida el modelo con los datos, mayor será el número R cuadrado.
En notación matemática se puede expresar como:
R^{2}=1-(^{frac{RSS}{TSS}})

  • Suma residual de cuadrados (RSS): La La suma de cuadrados del residuo para cada punto de datos en la gráfica o datos se conoce como suma de cuadrados residual, o RSS. Es una medida de la diferencia entre el resultado observado y lo anticipado.
    RSS=sum_{i=2}^{n}(y_{i}-b_{0}-b_{1}x_{i})^{2}
  • Suma Total de Cuadrados (TSS): La suma de los errores de los puntos de datos de la media de la variable de respuesta se conoce como suma total de cuadrados o TSS.
    TSS= sum_{}^{}(y-overline{y_{i}})^2

La métrica R cuadrado es una medida de la proporción de varianza en la variable dependiente que se explica con las variables independientes en el modelo.

Error de R cuadrado ajustado

R ajustado2Mide la proporción de varianza en la variable dependiente que se explica por variables independientes en un modelo de regresión. Cuadrado R ajustado cuenta el número de predictores en el modelo y penaliza al modelo por incluir predictores irrelevantes que no contribuyen significativamente a explicar la varianza en las variables dependientes.

Matemáticamente, R ajustado2se expresa como:

Adjusted , R^2 = 1 – (frac{(1-R^2).(n-1)}{n-k-1})

Aquí,

  • N es el numero de observaciones
  • k es el número de predictores en el modelo
  • R2es coeficiente de determinación

El cuadrado R ajustado ayuda a evitar el sobreajuste. Penaliza al modelo con predictores adicionales que no contribuyen significativamente a explicar la varianza en la variable dependiente.

Implementación de Python de regresión lineal

Importe las bibliotecas necesarias:

Python3 import pandas as pd import numpy as np import matplotlib.pyplot as plt import matplotlib.axes as ax from matplotlib.animation import FuncAnimation>

Cargue el conjunto de datos y separe las variables de entrada y de destino.

Aquí está el enlace para el conjunto de datos: Enlace al conjunto de datos

Python3 url = 'https://media.techcodeview.com data = pd.read_csv(url) data # Drop the missing values data = data.dropna() # training dataset and labels train_input = np.array(data.x[0:500]).reshape(500, 1) train_output = np.array(data.y[0:500]).reshape(500, 1) # valid dataset and labels test_input = np.array(data.x[500:700]).reshape(199, 1) test_output = np.array(data.y[500:700]).reshape(199, 1)>

Construya el modelo de regresión lineal y trace la línea de regresión

Pasos:

  • En la propagación directa, la función de regresión lineal Y=mx+c se aplica asignando inicialmente un valor aleatorio del parámetro (m & c).
  • Hemos escrito la función para encontrar la función de costo, es decir, la media.
Python3 class LinearRegression: def __init__(self): self.parameters = {} def forward_propagation(self, train_input): m = self.parameters['m'] c = self.parameters['c'] predictions = np.multiply(m, train_input) + c return predictions def cost_function(self, predictions, train_output): cost = np.mean((train_output - predictions) ** 2) return cost def backward_propagation(self, train_input, train_output, predictions): derivatives = {} df = (predictions-train_output) # dm= 2/n * mean of (predictions-actual) * input dm = 2 * np.mean(np.multiply(train_input, df)) # dc = 2/n * mean of (predictions-actual) dc = 2 * np.mean(df) derivatives['dm'] = dm derivatives['dc'] = dc return derivatives def update_parameters(self, derivatives, learning_rate): self.parameters['m'] = self.parameters['m'] - learning_rate * derivatives['dm'] self.parameters['c'] = self.parameters['c'] - learning_rate * derivatives['dc'] def train(self, train_input, train_output, learning_rate, iters): # Initialize random parameters self.parameters['m'] = np.random.uniform(0, 1) * -1 self.parameters['c'] = np.random.uniform(0, 1) * -1 # Initialize loss self.loss = [] # Initialize figure and axis for animation fig, ax = plt.subplots() x_vals = np.linspace(min(train_input), max(train_input), 100) line, = ax.plot(x_vals, self.parameters['m'] * x_vals + self.parameters['c'], color='red', label='Regression Line') ax.scatter(train_input, train_output, marker='o', color='green', label='Training Data') # Set y-axis limits to exclude negative values ax.set_ylim(0, max(train_output) + 1) def update(frame): # Forward propagation predictions = self.forward_propagation(train_input) # Cost function cost = self.cost_function(predictions, train_output) # Back propagation derivatives = self.backward_propagation( train_input, train_output, predictions) # Update parameters self.update_parameters(derivatives, learning_rate) # Update the regression line line.set_ydata(self.parameters['m'] * x_vals + self.parameters['c']) # Append loss and print self.loss.append(cost) print('Iteration = {}, Loss = {}'.format(frame + 1, cost)) return line, # Create animation ani = FuncAnimation(fig, update, frames=iters, interval=200, blit=True) # Save the animation as a video file (e.g., MP4) ani.save('linear_regression_A.webp'false'>Python3 #Ejemplo de uso: parámetros linear_reg = LinearRegression(), pérdida = linear_reg.train(train_input, train_output, 0.0001, 20) Salida: Iteración = 1, Pérdida = 9130.407560462196 Iteración = 1, Pérdida = 1107.1996742908998 Iteración = 1, Pérdida = 140. 31580932842422 Iteración = 1, Pérdida = 23.795780526084116 Iteración = 2, Pérdida = 9.753848205147605 Iteración = 3, Pérdida = 8.061641745006835 Iteración = 4, Pérdida = 7.8577116490914864 Iteración = 5, Pérdida = 7. 8331350515579015 Iteración = 6, Pérdida = 7,830172502503967 Iteración = 7, Pérdida = 7,829814681591015 Iteración = 8 , Pérdida = 7.829770758846183 Iteración = 9, Pérdida = 7.829764664327399 Iteración = 10, Pérdida = 7.829763128602258 Iteración = 11, Pérdida = 7.829762142342088 Iteración = 12, Pérdida = 7. 829761222379141 Iteración = 13, Pérdida = 7,829760310486438 Iteración = 14, Pérdida = 7,829759399646989 Iteración = 15, Pérdida = 7,829758489015161 Iteración = 16, Pérdida = 7,829757578489033 Iteración = 17, Pérdida = 7,829756668056319 Iteración = 18, Pérdida = 7,829755757715535 Iteración = 19, Pérdida = 7,8 29754847466484 Iteración = 20, Pérdida = 7,829753937309139 Línea de regresión linealLa línea de regresión lineal proporciona información valiosa sobre la relación entre las dos variables. Representa la línea de mejor ajuste que captura la tendencia general de cómo cambia una variable dependiente (Y) en respuesta a variaciones en una variable independiente (X). Línea de regresión lineal positiva: una línea de regresión lineal positiva indica una relación directa entre la variable independiente (X) y la variable dependiente (Y). Esto significa que a medida que aumenta el valor de X, también aumenta el valor de Y. La pendiente de una línea de regresión lineal positiva es positiva, lo que significa que la línea se inclina hacia arriba de izquierda a derecha. Línea de regresión lineal negativa: una línea de regresión lineal negativa indica una relación inversa entre la variable independiente (X) y la variable dependiente (Y). Esto significa que a medida que aumenta el valor de X, el valor de Y disminuye. La pendiente de una línea de regresión lineal negativa es negativa, lo que significa que la línea se inclina hacia abajo de izquierda a derecha. Técnicas de regularización para modelos lineales Regresión de lazo (regularización L1) La regresión de lazo es una técnica utilizada para regularizar un modelo de regresión lineal, agrega una penalización término a la función objetivo de regresión lineal para evitar el sobreajuste. La función objetivo después de aplicar la regresión de lazo es: el primer término es la pérdida de mínimos cuadrados, que representa la diferencia al cuadrado entre los valores previstos y reales. el segundo término es el término de regularización L1, penaliza la suma de valores absolutos del coeficiente de regresión θj. Regresión de cresta (regularización L2) La regresión de cresta es una técnica de regresión lineal que agrega un término de regularización al objetivo lineal estándar. Nuevamente, el objetivo es evitar el sobreajuste penalizando los coeficientes grandes en la ecuación de regresión lineal. Es útil cuando el conjunto de datos tiene multicolinealidad donde las variables predictoras están altamente correlacionadas. La función objetivo después de aplicar la regresión de crestas es: el primer término es la pérdida de mínimos cuadrados, que representa la diferencia al cuadrado entre los valores previstos y reales. el segundo término es el término de regularización L1, penaliza la suma de los cuadrados de los valores del coeficiente de regresión θj. Regresión neta elástica La regresión neta elástica es una técnica de regularización híbrida que combina el poder de la regularización L1 y L2 en un objetivo de regresión lineal. el primer término es la pérdida de mínimos cuadrados. el segundo término es la regularización L1 y el tercero es la regresión de crestas.???? es la fuerza de regularización general. α controla la mezcla entre la regularización L1 y L2. Aplicaciones de la regresión lineal La regresión lineal se utiliza en muchos campos diferentes, incluidos las finanzas, la economía y la psicología, para comprender y predecir el comportamiento de una variable en particular. Por ejemplo, en finanzas, la regresión lineal podría usarse para comprender la relación entre el precio de las acciones de una empresa y sus ganancias o para predecir el valor futuro de una moneda en función de su desempeño pasado. Ventajas y desventajas de la regresión linealVentajas de la regresión linealLa regresión lineal es un algoritmo relativamente simple, lo que lo hace fácil de entender e implementar. Los coeficientes del modelo de regresión lineal se pueden interpretar como el cambio en la variable dependiente para un cambio de una unidad en la variable independiente, lo que proporciona información sobre las relaciones entre variables. La regresión lineal es computacionalmente eficiente y puede manejar grandes conjuntos de datos de manera efectiva. Puede entrenarse rápidamente en grandes conjuntos de datos, lo que lo hace adecuado para aplicaciones en tiempo real. La regresión lineal es relativamente robusta frente a valores atípicos en comparación con otros algoritmos de aprendizaje automático. Los valores atípicos pueden tener un impacto menor en el rendimiento general del modelo. La regresión lineal a menudo sirve como un buen modelo de referencia para comparar con algoritmos de aprendizaje automático más complejos. La regresión lineal es un algoritmo bien establecido con una rica historia y está ampliamente disponible en varios tipos de aprendizaje automático. bibliotecas y paquetes de software. Desventajas de la regresión lineal La regresión lineal supone una relación lineal entre las variables dependientes e independientes. Si la relación no es lineal, es posible que el modelo no funcione bien. La regresión lineal es sensible a la multicolinealidad, que ocurre cuando existe una alta correlación entre variables independientes. La multicolinealidad puede inflar la varianza de los coeficientes y dar lugar a predicciones inestables del modelo. La regresión lineal supone que las características ya están en una forma adecuada para el modelo. Es posible que se requiera ingeniería de características para transformar las características en un formato que el modelo pueda utilizar de manera efectiva. La regresión lineal es susceptible tanto al sobreajuste como al desajuste. El sobreajuste ocurre cuando el modelo aprende demasiado bien los datos de entrenamiento y no logra generalizar a datos invisibles. El desajuste ocurre cuando el modelo es demasiado simple para capturar las relaciones subyacentes en los datos. La regresión lineal proporciona un poder explicativo limitado para relaciones complejas entre variables. Es posible que se necesiten técnicas de aprendizaje automático más avanzadas para obtener conocimientos más profundos. Conclusión La regresión lineal es un algoritmo fundamental de aprendizaje automático que se ha utilizado ampliamente durante muchos años debido a su simplicidad, interpretabilidad y eficiencia. Es una herramienta valiosa para comprender las relaciones entre variables y hacer predicciones en una variedad de aplicaciones. Sin embargo, es importante ser consciente de sus limitaciones, como el supuesto de linealidad y la sensibilidad a la multicolinealidad. Cuando estas limitaciones se consideran cuidadosamente, la regresión lineal puede ser una herramienta poderosa para el análisis y la predicción de datos. Regresión lineal: preguntas frecuentes (FAQ) ¿Qué significa regresión lineal en términos simples? La regresión lineal es un algoritmo de aprendizaje automático supervisado que predice una variable objetivo continua en función de una o más variables independientes. Asume una relación lineal entre las variables dependientes e independientes y utiliza una ecuación lineal para modelar esta relación. ¿Por qué utilizamos la regresión lineal? La regresión lineal se usa comúnmente para: Predecir valores numéricos basados ​​en características de entrada Pronosticar tendencias futuras basadas en datos históricos Identificar correlaciones entre variables Comprender el impacto de diferentes factores en un resultado particular ¿Cómo usar la regresión lineal? Usar la regresión lineal ajustando una línea para predecir la relación entre variables , comprender coeficientes y hacer predicciones basadas en valores de entrada para una toma de decisiones informada. ¿Por qué se llama regresión lineal? La regresión lineal recibe su nombre por el uso de una ecuación lineal para modelar la relación entre variables, que representa un ajuste de línea recta a los puntos de datos. ¿Qué son los ejemplos de regresión lineal? Predecir los precios de la vivienda en función de los metros cuadrados, estimar los puntajes de los exámenes a partir de las horas de estudio y pronosticar las ventas mediante el gasto en publicidad son ejemplos de aplicaciones de regresión lineal.>