Skip to content

Commit

Permalink
Translation to Spanish of the tutorial Part 04
Browse files Browse the repository at this point in the history
* Translation to Spanish of the tutorial Part 04

feat: Translation to Spanish of Part 04 - Federated Learning via Trusted Aggregator.

This comes as a response to the initiative to translate all the
PySyft tutorials, as it is desirable to learn PySyft in our native
language.

As requested, every part of the tutorial is done via pull request
separately to:

 - Track better the changes in every document.

 - Avoid double work.

Resolves: OpenMined#2775
See also: OpenMined#2782
  • Loading branch information
nph4rd committed Jan 17, 2020
1 parent bbb7758 commit d642fdb
Showing 1 changed file with 371 additions and 0 deletions.
Original file line number Diff line number Diff line change
@@ -0,0 +1,371 @@
{
"cells": [
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Parte 4: Aprendizaje Federado con Promedio de Modelos\n",
"\n",
"**Recap:** En la Parte 2 de este tutorial entrenamos un modelo utilizando una versión muy simple del Aprendizaje Federado. Esto requirió que cada propietario de los datos confiara en el propietario del modelo para poder ver sus gradientes.\n",
"\n",
"**Descripción:** En este tutorial mostraremos cómo usar los métodos avanzados de agregación de la Parte 3 para que los pesos sean agregados por un \"trabajador seguro\" confiable antes de que el modelo final sea enviado al propietario del modelo (nosotros).\n",
"\n",
"De esta manera, sólo el trabajador seguro puede ver los gradientes de cada trabajador involucrado. Podríamos deducir qué partes del modelo cambiaron, pero NO sabríamos cuál trabajador (bob o alice) hizo este cambio, lo cual añade una capa de privacidad.\n",
"\n",
"Autores:\n",
" - Andrew Trask - Twitter: [@iamtrask](https://twitter.com/iamtrask)\n",
" - Jason Mancuso - Twitter: [@jvmancuso](https://twitter.com/jvmancuso)\n",
" \n",
"Traductores:\n",
"\n",
"- Arturo Márquez Flores - Twitter: [@arturomf94](https://twitter.com/arturomf94)\n",
"- Ricardo Pretelt - Twitter: [@ricardopretelt](https://twitter.com/ricardopretelt)\n",
"- Carlos Salgado - Github: [@socd06](https://github.com/socd06)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"import torch\n",
"import syft as sy\n",
"import copy\n",
"hook = sy.TorchHook(torch)\n",
"from torch import nn, optim"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Paso 1: Crear los Propietarios de los Datos\n",
"\n",
"Primero, vamos a crear dos propietarios de datos (Bob y Alice) cada uno con una pequeña porción de los datos. También vamos a inicializar una máquina segura llamada \"trabajador seguro\" (\"secure worker\"). En la práctica esto podría ser un hardware seguro (como el SGX de Intel) o simplemente un intermediario confiable."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"# crear un par de trabajadores\n",
"\n",
"bob = sy.VirtualWorker(hook, id=\"bob\")\n",
"alice = sy.VirtualWorker(hook, id=\"alice\")\n",
"secure_worker = sy.VirtualWorker(hook, id=\"secure_worker\")\n",
"\n",
"\n",
"# Un conjunto de datos de juguete\n",
"data = torch.tensor([[0,0],[0,1],[1,0],[1,1.]], requires_grad=True)\n",
"target = torch.tensor([[0],[0],[1],[1.]], requires_grad=True)\n",
"\n",
"# Obtén los punteros para realizar el entrenamiento en cada\n",
"# trabajador enviando una parte de los datos de entrenamiento\n",
"# a bob y alice.\n",
"bobs_data = data[0:2].send(bob)\n",
"bobs_target = target[0:2].send(bob)\n",
"\n",
"alices_data = data[2:].send(alice)\n",
"alices_target = target[2:].send(alice)"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Paso 2: Crear Nuestro Modelo\n",
"En este ejemplo entrenaremos un simple modelo lineal. Podemos inicializar el modelo de manera normal utilizando el constructor nn.Linear de PyTorch."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"# Inicializa el modelo de juguete\n",
"model = nn.Linear(2,1)"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Paso 4: Enviar una Copia del Modelo a Alice y Bob\n",
"Ahora, necesitamos enviar una copia del modelo actual a Alice y Bob de tal manera que puedan realizar los pasos de entrenamiento en sus respectivos conjuntos de datos."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"bobs_model = model.copy().send(bob)\n",
"alices_model = model.copy().send(alice)\n",
"\n",
"bobs_opt = optim.SGD(params=bobs_model.parameters(),lr=0.1)\n",
"alices_opt = optim.SGD(params=alices_model.parameters(),lr=0.1)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": []
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Paso 4: Entrena los Modelos de Bob y Alice (en paralelo).\n",
"\n",
"Como es la convención con Aprendizaje Federado via Agregación Segura, primero cada propietario de los datos entrena su modelo por varias iteraciones de manera local antes de que los modelos se promedien."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"for i in range(10):\n",
"\n",
" # Entrena el modelo de bob\n",
" bobs_opt.zero_grad()\n",
" bobs_pred = bobs_model(bobs_data)\n",
" bobs_loss = ((bobs_pred - bobs_target)**2).sum()\n",
" bobs_loss.backward()\n",
"\n",
" bobs_opt.step()\n",
" bobs_loss = bobs_loss.get().data\n",
"\n",
" # Entrena el modelo de Alice\n",
" alices_opt.zero_grad()\n",
" alices_pred = alices_model(alices_data)\n",
" alices_loss = ((alices_pred - alices_target)**2).sum()\n",
" alices_loss.backward()\n",
"\n",
" alices_opt.step()\n",
" alices_loss = alices_loss.get().data\n",
" \n",
" print(\"Bob:\" + str(bobs_loss) + \" Alice:\" + str(alices_loss))"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Paso 5: Envía Ambos Modelos Actualizados a un Trabajador Seguro\n",
"\n",
"Ahora que cada propietario de los datos tiene un modelo parcialmente entrenado, es tiempo de promediarlos en una manera segura. Esto lo hacemos instruyendo a Alice y Bob para que manden sus modelos al servidor seguro (confiable)."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"alices_model.move(secure_worker)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"bobs_model.move(secure_worker)"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Paso 6: Promediar los Modelos"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Finalmente, la última etapa de esta iteración (epoch) es promediar el modelo entrenado de Bob y Alice y usar esto para establecer los valores de nuestro modelo global."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"with torch.no_grad():\n",
" model.weight.set_(((alices_model.weight.data + bobs_model.weight.data) / 2).get())\n",
" model.bias.set_(((alices_model.bias.data + bobs_model.bias.data) / 2).get())\n"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Enjuaga y Repite\n",
"\n",
"¡Ahora sólo necesitamos iterar esto múltiples veces!"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"iterations = 10\n",
"worker_iters = 5\n",
"\n",
"for a_iter in range(iterations):\n",
" \n",
" bobs_model = model.copy().send(bob)\n",
" alices_model = model.copy().send(alice)\n",
"\n",
" bobs_opt = optim.SGD(params=bobs_model.parameters(),lr=0.1)\n",
" alices_opt = optim.SGD(params=alices_model.parameters(),lr=0.1)\n",
"\n",
" for wi in range(worker_iters):\n",
"\n",
" # Entrena el modelo de Bob\n",
" bobs_opt.zero_grad()\n",
" bobs_pred = bobs_model(bobs_data)\n",
" bobs_loss = ((bobs_pred - bobs_target)**2).sum()\n",
" bobs_loss.backward()\n",
"\n",
" bobs_opt.step()\n",
" bobs_loss = bobs_loss.get().data\n",
"\n",
" # Entrena el modelo de Alice\n",
" alices_opt.zero_grad()\n",
" alices_pred = alices_model(alices_data)\n",
" alices_loss = ((alices_pred - alices_target)**2).sum()\n",
" alices_loss.backward()\n",
"\n",
" alices_opt.step()\n",
" alices_loss = alices_loss.get().data\n",
" \n",
" alices_model.move(secure_worker)\n",
" bobs_model.move(secure_worker)\n",
" with torch.no_grad():\n",
" model.weight.set_(((alices_model.weight.data + bobs_model.weight.data) / 2).get())\n",
" model.bias.set_(((alices_model.bias.data + bobs_model.bias.data) / 2).get())\n",
" \n",
" print(\"Bob:\" + str(bobs_loss) + \" Alice:\" + str(alices_loss))"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Finalmente queremos asegurarnos que nuestro modelo final haya aprendido correctamente, así que lo evaluaremos en un conjunto de datos de prueba. En este ejemplo de juguete utilizaremos los datos originales, pero en la práctica queremos usar nuevos datos para entender bien cómo el modelo se generaliza a nuevos ejemplos."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"preds = model(data)\n",
"loss = ((preds - target) ** 2).sum()"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"print(preds)\n",
"print(target)\n",
"print(loss.data)"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"En este ejemplo de juguete el modelo promediado se está subajustando con relación al comportamiento de un modelo con texto sin formato (\"plaintext\"). Sin embargo, pudimos entrenarlo sin exponer los datos de los trabajadores. También pudimos agregar los modelos actualizados de cada trabajador con un agregador confiable para prevenir la fuga de datos al propietario del modelo. \n",
"\n",
"En un tutorial futuro intentaremos realizar nuestra agregación confiable directamente con los gradientes, de tal manera que podremos actualizar el modelo con mejores estimaciones de los gradientes y tener un mejor modelo."
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": []
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# !Felicitaciones! - !Es hora de unirte a la comunidad!\n",
"\n",
"¡Felicitaciones por completar esta parte del tutorial! Si te gustó y quieres unirte al movimiento para preservar la privacidad, propiedad descentralizada de IA y la cadena de suministro de IA (datos), puedes hacerlo de las ¡siguientes formas!\n",
"\n",
"### Dale una estrella a PySyft en GitHub\n",
"\n",
"La forma más fácil de ayudar a nuestra comunidad es por darle estrellas a ¡los repositorios de Github! Esto ayuda a crear consciencia de las interesantes herramientas que estamos construyendo.\n",
"\n",
"- [Star PySyft](https://github.com/OpenMined/PySyft)\n",
"\n",
"### ¡Únete a nuestro Slack!\n",
"\n",
"La mejor manera de mantenerte actualizado con los últimos avances es ¡unirte a la comunidad! Tú lo puedes hacer llenando el formulario en [https://slack.openmined.org](https://slack.openmined.org)\n",
"\n",
"### ¡Únete a un proyecto de código!\n",
"\n",
"La mejor manera de contribuir a nuestra comunidad es convertirte en un ¡contribuidor de código! En cualquier momento puedes ir al _Github Issues_ de PySyft y filtrar por \"Proyectos\". Esto mostrará todos los tiquetes de nivel superior dando un resumen de los proyectos a los que ¡te puedes unir! Si no te quieres unir a un proyecto, pero quieres hacer un poco de código, también puedes mirar más mini-proyectos \"de una persona\" buscando por Github Issues con la etiqueta \"good first issue\".\n",
"\n",
"- [PySyft Projects](https://github.com/OpenMined/PySyft/issues?q=is%3Aopen+is%3Aissue+label%3AProject)\n",
"- [Good First Issue Tickets](https://github.com/OpenMined/PySyft/issues?q=is%3Aopen+is%3Aissue+label%3A%22good+first+issue%22)\n",
"\n",
"### Donar\n",
"\n",
"Si no tienes tiempo para contribuir a nuestra base de código, pero quieres ofrecer tu ayuda, también puedes aportar a nuestro *Open Collective\"*. Todas las donaciones van a nuestro *web hosting* y otros gastos de nuestra comunidad como ¡hackathons y meetups!\n",
"\n",
"[OpenMined's Open Collective Page](https://opencollective.com/openmined)"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": []
}
],
"metadata": {
"kernelspec": {
"display_name": "Python 3",
"language": "python",
"name": "python3"
},
"language_info": {
"codemirror_mode": {
"name": "ipython",
"version": 3
},
"file_extension": ".py",
"mimetype": "text/x-python",
"name": "python",
"nbconvert_exporter": "python",
"pygments_lexer": "ipython3",
"version": "3.6.9"
}
},
"nbformat": 4,
"nbformat_minor": 2
}

0 comments on commit d642fdb

Please sign in to comment.