Mostrar los tags: oca

Mostrando del 1 al 10 de 36 coincidencias
<<>>
Se ha buscado por el tag: oca
Imágen de perfil

Descenso de gradiente tipo Adam.


Python

Publicado el 19 de Octubre del 2023 por Hilario (121 códigos)
471 visualizaciones desde el 19 de Octubre del 2023
El descenso de gradiente tipo Adam, o simplemente Adam (por Adaptive Moment Estimation), es un algoritmo de optimización utilizado en el campo del aprendizaje automático y la inteligencia artificial para ajustar los parámetros de un modelo de manera que se minimice una función de pérdida. Adam es una variante del descenso de gradiente estocástico (SGD) que combina técnicas de otros algoritmos de optimización para mejorar la convergencia y la eficiencia en la búsqueda de los mejores parámetros del modelo.

Aquí hay una explicación simplificada de cómo funciona el algoritmo Adam:

Inicialización de parámetros: Se inician los parámetros del algoritmo, como la tasa de aprendizaje (learning rate), los momentos de primer y segundo orden, y se establece un contador de iteraciones.

Cálculo del gradiente: En cada iteración, se calcula el gradiente de la función de pérdida con respecto a los parámetros del modelo. Esto indica en qué dirección deben ajustarse los parámetros para reducir la pérdida.

Cálculo de momentos de primer y segundo orden: Adam mantiene dos momentos acumulativos, uno de primer orden (media móvil de los gradientes) y otro de segundo orden (media móvil de los gradientes al cuadrado).

Actualización de parámetros: Se utilizan los momentos calculados en el paso anterior para ajustar los parámetros del modelo. Esto incluye un término de corrección de sesgo para tener en cuenta el hecho de que los momentos se inicializan en cero. La tasa de aprendizaje también se aplica en esta etapa.

Iteración y repetición: Los pasos 2-4 se repiten durante un número especificado de iteraciones o hasta que se cumpla un criterio de parada, como la convergencia.

Adam se considera una elección popular para la optimización de modelos de aprendizaje profundo debido a su capacidad para adaptar la tasa de aprendizaje a medida que se entrena el modelo, lo que lo hace efectivo en una variedad de aplicaciones y evita problemas como la convergencia lenta o la divergencia en el entrenamiento de redes neuronales. Sin embargo, es importante ajustar adecuadamente los hiperparámetros de Adam, como la tasa de aprendizaje y los momentos, para obtener un rendimiento óptimo en un problema específico.
Imágen de perfil

ESTOCÁSTICO


Python

Publicado el 15 de Septiembre del 2023 por Hilario (121 códigos)
204 visualizaciones desde el 15 de Septiembre del 2023
"""
Hilario Iglesias Martínez.
*****************************************
Ejercicio:
CuadernoEstocas-Aula-48-15-SEP-RV-2.py
-----------------------------------------
Ejecución:python3 CuadernoEstocas-Aula-48-15-SEP-RV-2.py
******************************************
Se prueba con los valores con pareamétros mínimos,
con el fin de apreciar su funcionamiento:

learning_rate = 0.01
n_iterations = 4
np.random.seed(0)
X = 2 * np.random.rand(4, 1)
y = 4 + 3 * X + np.random.randn(4, 1)

-------------------------------------------
Creado bajo plataforma Linux.
Ubuntu 20.04.6 LTS
Editado con Sublime Text.
Ejecutado bajo consola linux:
python3 CuadernoEstocas-Aula-48-15-SEP-RV-2.py

"""
Imágen de perfil

Descenso de Gradiente Estocástico (SGD)


Python

Publicado el 14 de Septiembre del 2023 por Hilario (121 códigos)
450 visualizaciones desde el 14 de Septiembre del 2023
Hilario Iglesias Marínez

*******************************************************************
Ejercicio:
Estocástico_Aula_F-890.py
Ejecucion bajo Consola Linux:
python3 Estocástico_Aula_F-890.py

******************************************************************
Diferencias.
El descenso de gradiente es un algoritmo de optimización utilizado comúnmente en el aprendizaje automático y la optimización de funciones. Hay dos variantes principales del descenso de gradiente: el descenso de gradiente tipo Batch (también conocido como descenso de gradiente por lotes) y el descenso de gradiente estocástico. Estas dos variantes difieren en la forma en que utilizan los datos de entrenamiento para actualizar los parámetros del modelo en cada iteración.

Descenso de Gradiente Tipo Batch:

En el descenso de gradiente tipo Batch, se utiliza el conjunto completo de datos de entrenamiento en cada iteración del algoritmo para calcular el gradiente de la función de costo con respecto a los parámetros del modelo.
El gradiente se calcula tomando el promedio de los gradientes de todas las muestras de entrenamiento.
Luego, se actualizan los parámetros del modelo utilizando este gradiente promedio.
El proceso se repite hasta que se alcanza una convergencia satisfactoria o se ejecuta un número predefinido de iteraciones.

Descenso de Gradiente Estocástico (SGD):

En el descenso de gradiente estocástico, en cada iteración se selecciona una sola muestra de entrenamiento al azar y se utiliza para calcular el gradiente de la función de costo.
Los parámetros del modelo se actualizan inmediatamente después de calcular el gradiente para esa única muestra.
Debido a la selección aleatoria de muestras, el proceso de actualización de parámetros es inherentemente más ruidoso y menos suave que en el descenso de gradiente tipo Batch.
SGD es más rápido en cada iteración individual y a menudo converge más rápidamente, pero puede ser más ruidoso y menos estable en términos de convergencia que el descenso de gradiente tipo Batch.
Diferencias clave:

Batch GD utiliza todo el conjunto de datos en cada iteración, lo que puede ser costoso computacionalmente, mientras que SGD utiliza una sola muestra a la vez, lo que suele ser más eficiente en términos de tiempo.
Batch GD tiene una convergencia más suave y estable debido a que utiliza gradientes promedio, mientras que SGD es más ruidoso pero a menudo converge más rápido.
Batch GD puede quedar atrapado en óptimos locales, mientras que SGD puede escapar de ellos debido a su naturaleza estocástica.
En la práctica, también existen variantes intermedias como el Mini-Batch Gradient Descent, que utiliza un pequeño conjunto de datos (mini-lote) en lugar del conjunto completo, equilibrando así los beneficios de ambas técnicas. La elección entre estas variantes depende de la naturaleza del problema y las restricciones computacionales.


Imágen de perfil

Descenso de Gradiente Estocástico(SGD)


Python

Publicado el 13 de Septiembre del 2023 por Hilario (121 códigos)
365 visualizaciones desde el 13 de Septiembre del 2023
[
b]AulaF_658-Gradiente_Estocastico.py
*************************************************[/b]

El descenso de gradiente estocástico (SGD por sus siglas en inglés, Stochastic Gradient Descent) es un algoritmo de optimización ampliamente utilizado en el campo del aprendizaje automático y la inteligencia artificial para entrenar modelos de machine learning, especialmente en el contexto de aprendizaje profundo (deep learning). SGD es una variante del algoritmo de descenso de gradiente clásico.

La principal diferencia entre el descenso de gradiente estocástico y el descenso de gradiente tradicional radica en cómo se actualizan los parámetros del modelo durante el proceso de entrenamiento. En el descenso de gradiente tradicional, se calcula el gradiente de la función de pérdida utilizando todo el conjunto de datos de entrenamiento en cada paso de la optimización, lo que puede ser computacionalmente costoso en conjuntos de datos grandes.

En contraste, en SGD, en cada paso de optimización se utiliza un único ejemplo de entrenamiento (o un pequeño lote de ejemplos de entrenamiento) de forma aleatoria. Esto introduce estocasticidad en el proceso, ya que el gradiente calculado en cada paso se basa en una muestra aleatoria de datos. Como resultado, el proceso de optimización es más rápido y puede converger a un mínimo local o global de la función de pérdida de manera más eficiente en muchos casos.

Los pasos generales del algoritmo de descenso de gradiente estocástico son los siguientes:

Inicializar los parámetros del modelo de manera aleatoria o utilizando algún valor inicial.

Mezclar aleatoriamente el conjunto de datos de entrenamiento.

Realizar iteraciones sobre el conjunto de datos de entrenamiento, tomando un ejemplo (o un pequeño lote) a la vez.

Calcular el gradiente de la función de pérdida con respecto a los parámetros utilizando el ejemplo seleccionado.

Actualizar los parámetros del modelo utilizando el gradiente calculado y una tasa de aprendizaje predefinida.

Repetir los pasos 3-5 durante un número fijo de iteraciones o hasta que se cumpla un criterio de convergencia.

El uso de SGD es beneficioso en situaciones donde el conjunto de datos es grande o cuando se necesita un entrenamiento rápido. Sin embargo, la estocasticidad puede hacer que el proceso sea más ruidoso y requiera una sintonización cuidadosa de hiperparámetros, como la tasa de aprendizaje. Además, existen variantes de SGD, como el Mini-Batch Gradient Descent, que toman un pequeño lote de ejemplos en lugar de uno solo, lo que ayuda a suavizar las actualizaciones de parámetros sin la necesidad de calcular el gradiente en todo el conjunto de datos.
Imágen de perfil

Api Correo Argento Cotizar Envios


PHP

estrellaestrellaestrellaestrellaestrella(2)
Actualizado el 16 de Julio del 2023 por Augusto (8 códigos) (Publicado el 24 de Diciembre del 2021)
4.204 visualizaciones desde el 24 de Diciembre del 2021
Buenos dias, brindo acceso a la api creada y desarrollada por mi para realizar cotizaciones de envios con correo argentino con el paquete PAQ.AR. Debido a que correo argentino no tiene api propia fue necesario desarrollarla para un cliente.

La api devulve lo siguiente

{
"id_costo": "6",
"peso": "2",
"zona": "2",
"precio": "496"
}

En la base de datos estan todas las zonas cargadas, junto con todas las ciudades del pais, son 4 zonas y detalladas por provincia. Estan los costos de envio tanto a domicilio como retiro en sucursal.

Se accede mediante GET
api_correo_argentino?id_provincia_origen=1&codigo_postal=2000&peso=2&tipo=D&password=9wcUFdyQhw

y requiere las variables origen,destino,peso y un password que proporcionare a cada cliente.
Les dejo mi correo por si necesitan acceso a la api. El valor es anual.

Mi correo [email protected]
http://webdb.com.ar
Imágen de perfil

Simular un trigger ante la presencia de un archivo


C/Visual C

Publicado el 9 de Marzo del 2023 por Elvinofalta
214 visualizaciones desde el 9 de Marzo del 2023
Si el Archivo se genera despues de las 17:30 el programa finaliza, o podrias agregarle que envie un mail o disparando un proceso etc etc etc

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
/*
 *************************************************************
 * @file gocheck.c
 * Compilacion: cc -c gocheck.c -o gocheck.o -w
 * LinkEdicion: cc -o gocheck  gocheck.o -w
 * ***********************************************
 * Comp&Linker:
                cc -o gocheck  gocheck.c
 * autor: ElVino.Falta(farfan890@gmail.com)
 * @brief       detecta la fecha de una archivo
 *************************************************************
 */
 
 
#include <time.h>
#include <stdio.h>
#include <time.h>
#include <sys/types.h>
#include <sys/stat.h>
 
#define TRUE     1
#define FALSE    0
 
int main( int argc, char* argv[] ) {
 
      char file[] = "ArvhivodeHoy.txt";
      char tmFile[ 100 ] = "";
      char tmFile_Fecha[ 10 ] = "";
      char tmFile_Hora[ 6 ] = "";
 
      char tmHoy[ 100 ] = "";
      char tmHoy_Fecha[ 10 ] = "";
      char tmHoy_Hora[ 6 ] = "";
 
      struct stat b;
 
      time_t tToday = time(NULL);
      /*
      strftime(tmHoy, 100, "%d/%m/%Y %H:%M:%S", localtime( &tToday));
      strftime(tmHoy_Fecha, 10, "%Y%m%d ", localtime( &tToday));
      strftime(tmHoy_Hora, 6, "%H%M", localtime( &tToday));
      printf("\nFecha y Hora, Hoy = %s\n", tmHoy);
      printf("\nFecha %s y Hora %s  de Hoy\n", tmHoy_Fecha, tmHoy_Hora);
      */
      while(TRUE) {
 
           tToday = time(NULL);
 
           strftime(tmHoy, 100, "%d/%m/%Y %H:%M:%S", localtime( &tToday));
           strftime(tmHoy_Fecha, 10, "%Y%m%d ", localtime( &tToday));
           strftime(tmHoy_Hora, 6, "%H%M", localtime( &tToday));
 
           printf("\nFecha y Hora, Hoy = %s\n", tmHoy);
           printf("\nFecha %s y Hora %s  de Hoy\n", tmHoy_Fecha, tmHoy_Hora);
           if (!stat(file, &b)) {
                strftime(tmFile, 100, "%d/%m/%Y %H:%M:%S", localtime( &b.st_mtime));
                strftime(tmFile_Fecha, 10, "%Y%m%d ", localtime( &b.st_mtime));
                strftime(tmFile_Hora, 6, "%H%M", localtime( &b.st_mtime));
 
                printf("\nUltima Modificacion = %s\n", tmFile);
                printf("\nFecha %s y Hora %s  del Archivo\n", tmFile_Fecha, tmFile_Hora);
 
                if( strcmp(tmHoy_Fecha, tmFile_Fecha) == 0) {
                     printf("\nEl Archivo tiene fecha de Hoy... %s\n", tmFile_Fecha);
                     if (atoi(tmFile_Hora) > 1730) {
                         printf("\nY se genero despues de la 17:30 %s\n", tmFile_Hora);
                         break;
                     } else
                         printf("\nY es anterior a las 17:30 %s \n", tmFile_Hora);
                }
 
           } else {
                  printf("No existe aun el Archivo\n");
           }
           sleep(5);
      }
      return 0;
}
sin imagen de perfil

parchis


Access

Publicado el 8 de Noviembre del 2022 por Roger Orlando
442 visualizaciones desde el 8 de Noviembre del 2022
rotaz-@0969
1920-x-1080-NOW1
Jackbox-Games-Logo-Web1
pp9releasestream_1920x10801
th1
th1
th2
th2
Imágen de perfil

Obtener posición de la ISS en tiempo real.


Python

Publicado el 29 de Abril del 2021 por Antonio (75 códigos)
2.609 visualizaciones desde el 29 de Abril del 2021
El programa muestra sobre un mapa, la posición en tiempo real, de la Estación Espacial Internacional (ISS) indicando la latitud y longitud actuales.
PARA CUALQUIER DUDA U OBSERVACIÓN, USEN LA SECCIÓN DE COMENTARIOS.

iss1
Imágen de perfil

script para crear API de pruebas en entorno Local


PHP

Publicado el 7 de Abril del 2021 por Oscar (8 códigos)
1.730 visualizaciones desde el 7 de Abril del 2021
Con este script podrás crear una API de prueba con php que podrás usar en apps VueJs, React o AngularJs si es que tienes un esquema de datos propio interesante y lo quieres verificar en este tipo de aplicaciones
Imágen de perfil

Cronometro que continua aunque se cierre el navegador


JavaScript

estrellaestrellaestrellaestrellaestrella(10)
Actualizado el 23 de Febrero del 2021 por Xavi (548 códigos) (Publicado el 7 de Octubre del 2014)
22.813 visualizaciones desde el 7 de Octubre del 2014
Una vez iniciado el cronometro, puedes actualizar la página, cerrar el navegador, incluso el ordenador... pero este cronometro seguirá funcionando, ya que guarda la fecha inicial en la base de datos del navegador, lo que permite cerrar el navegador y que cuando volvamos el cronometro siga funcionando.

cronometro-javascript-base-de-datos-navegador



He creado una nueva versión con PHP que el cronometro nunca se detiene y es el mismo cronometro para todos los usuarios: Cronometro compartido entre varios usuarios que no se reinicia nunca
Anterior1234Siguiente