William Arevalo Data Scientist & Full-Stack Developer

About Me Projects Blog


Blog

Adversary attack nn

Machine Learning July 07, 2018

En este post les mostrare como apartir de un modelo pre-entrenado de Redes Neuronales para Vision, en este caso de Google se puede confundir al mismo modelo para prediga objetos que no deberia, ha esto se le conoce como Ataque Adversario.

Reducción de la pérdida: tasa de aprendizaje

Machine Learning May 16, 2018

Como se observó, el vector de gradiente tiene una dirección y una magnitud. Los algoritmos de descenso de gradientes multiplican la gradiente por un escalar conocido como tasa de aprendizaje (o tamaño del paso en algunas ocasiones) para determinar el siguiente punto. Por ejemplo, si la magnitud de la gradiente es 2.5 y la tasa de aprendizaje es 0.01, el algoritmo de descenso de gradientes tomará el siguiente punto 0.025 más alejado del punto anterior.

Reducción de la pérdida: descenso de gradientes

Machine Learning May 16, 2018

El diagrama de enfoque iterativo contenía un cuadro verde con afirmaciones sin fundamento llamado “Actualizar parámetros”. Ahora reemplazaremos esa solución algorítmica mágica por algo más sustancial.

Reducción de la pérdida: descenso de gradiente estocástico

Machine Learning May 16, 2018

En el descenso de gradientes, un lote es la cantidad total de ejemplos que usas para calcular la gradiente en una sola iteración. Hasta ahora, hemos supuesto que el lote era el conjunto de datos completo. Al trabajar a la escala de Google, los conjuntos de datos suelen tener miles de millones o incluso cientos de miles de millones de ejemplos. Además, los conjuntos de datos de Google con frecuencia contienen inmensas cantidades de atributos. En consecuencia, un lote puede ser enorme. Un lote muy grande puede causar que incluso una sola iteración tome un tiempo muy prolongado para calcularse.

Primeros pasos con tensorflow: kit de herramientas

Machine Learning May 16, 2018

En la siguiente figura, se muestra la jerarquía actual de los kits de herramientas de TensorFlow:

Regresión lineal

Machine Learning May 10, 2018

Es sabido que los grillos cantan con más frecuencias en los días de más calor. Durante décadas, entomólogos profesionales y aficionados han catalogado datos sobre la cantidad de cantos por minuto y la temperatura. Para tu cumpleaños, la tía Ruth te regaló su amada base de datos sobre grillos y te invita a que aprendas un modelo para predecir dicha relación.

Reducción de la pérdida: un enfoque iterativo

Machine Learning May 10, 2018

En el módulo anterior, se presentó el concepto de pérdida. Aquí, aprenderás cómo un modelo de aprendizaje automático reduce la pérdida de manera iterativa.

Entrenamiento y pérdida

Machine Learning May 10, 2018

Entrenar un modelo simplemente significa aprender (determinar) valores correctos para todas las ponderaciones y las ordenadas al origen de los ejemplos etiquetados. En un aprendizaje supervisado, el algoritmo de un aprendizaje automático construye un modelo al examinar varios ejemplos e intentar encontrar un modelo que minimice la pérdida. Este proceso se denomina minimización del riesgo empírico.

Como reducir la perdida

Machine Learning May 10, 2018

¿Cómo se reduce la pérdida?

Funcion de perdida(basica)

Machine Learning April 21, 2018

La pérdida L2 para un ejemplo determinado también se denomina error al cuadrado.

Terminologia de ml

Machine Learning April 20, 2018

Si quieres comenzar en el grandioso mundo del Machine Learning o aprendizaje automático debes tener muy en cuenta estos términos que se utilizan en el campo.

This is a second test | blog

Information December 28, 2017

Hola esto es una segunda prueba

This is a test | blog

Information August 11, 2017

Hola esto es una prueba

Aqui añado mas texto como prueba



photo

William Arevalo

Data Scientist • Bogotá, CO • willarevalo.developer@gmail.com

Passionate Data Scientist | Scrum amateur | Pentester | Services Admin | Calisthenics devotee

I always keep in constant learning and evolution
I don't stop.