
Bienvenidos a esta guía sobre cómo Instalar DeepSeek en windows. Comparte este articulo y síguenos para recibir más guías y cursos.
Para saber más comente a continuación, respondemos todos y cada uno de los comentarios.
¿Te gustaría enterarte de cuando lanzamos descuentos y nuevos cursos?

Instalacion en Windows
Paso 1: Install Ollama
Para comenzar, descarga e instala Ollama desde su sitio web oficial. Una vez finalizada la descarga, instala la aplicación como lo harías con cualquier otro software en tu sistema.

Paso 2: Descargar y ejecutar DeepSeek-R1
Ahora vamos a configurar y descargar el modelo. Abre el terminal y ejecuta el siguiente comando:
ollama run deepseek-r1

Ollama ofrece diferentes versiones de DeepSeek-R1, desde modelos livianos de 1,5B de parámetros hasta la versión completa de 671B. Si tu hardware no es compatible con el modelo más grande, puedes elegir una versión más ligera reemplazando «X» con el tamaño deseado (1,5b, 7b, 8b, 14b, 32b, 70b, 671b):
ollama run deepseek-r1:Xb
Esto te permite aprovechar el poder de DeepSeek-R1 sin necesidad de un superordenador.
Paso 3: Ejecutar DeepSeek-R1 en segundo plano
Si quieres que DeepSeek-R1 esté disponible permanentemente para integrarse con otras aplicaciones, inicia el servidor Ollama con:
ollama serve
Uso local de DeepSeek-R1
Ejecutar inferencia mediante la terminal
Una vez descargado el modelo, puedes interactuar con él directamente desde la terminal.

Comparacion con Mistral:

Acceder a DeepSeek-R1 a través de la API
Para utilizar DeepSeek-R1 en una aplicación, puedes hacer una solicitud a la API de Ollama con curl:
curl http://localhost:11434/api/chat -d '{
"model": "deepseek-r1",
"messages": [{ "role": "user", "content": "Solve: 25 * 25" }],
"stream": false
}'
Si estás en Linux o macOS, curl es una herramienta integrada que te permite hacer peticiones HTTP de forma sencilla.
Acceder a DeepSeek-R1 mediante Python
Si prefieres trabajar con Python, primero instala el paquete de Ollama:
!pip install ollama
Luego, usa el siguiente script para interactuar con el modelo:
import ollama
response = ollama.chat(
model="deepseek-r1",
messages=[{"role": "user", "content": "Explica la teoria de la relatividad"}],
)
print(response["message"]["content"])
Ejecutar una aplicación Gradio para consultas con DeepSeek-R1
Vamos a crear una aplicación con Gradio para cargar documentos y realizar preguntas sobre ellos.
Requisitos previos
Asegúrate de tener instalado Python 3.8+ y las siguientes bibliotecas:
!pip install langchain chromadb gradio
!pip install -U langchain-community
Luego, importa las librerías necesarias:
import gradio as gr
from langchain_community.document_loaders import PyMuPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.vectorstores import Chroma
from langchain_community.embeddings import OllamaEmbeddings
import ollama
Procesar el PDF cargado
def process_pdf(pdf_bytes):
if pdf_bytes is None:
return None, None, None
loader = PyMuPDFLoader(pdf_bytes)
data = loader.load()
text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=100)
chunks = text_splitter.split_documents(data)
embeddings = OllamaEmbeddings(model="deepseek-r1")
vectorstore = Chroma.from_documents(documents=chunks, embedding=embeddings)
retriever = vectorstore.as_retriever()
return text_splitter, vectorstore, retriever
Unir los fragmentos de documentos recuperados
def combine_docs(docs):
return "\n\n".join(doc.page_content for doc in docs)
Consultar a DeepSeek-R1 con Ollama
def ollama_llm(question, context):
formatted_prompt = f"Question: {question}\n\nContext: {context}"
response = ollama.chat(model="deepseek-r1", messages=[{'role': 'user', 'content': formatted_prompt}])
response_content = response['message']['content']
return response_content.strip()
Construir la tubería de recuperación y generación (RAG)
def rag_chain(question, text_splitter, vectorstore, retriever):
retrieved_docs = retriever.invoke(question)
formatted_content = combine_docs(retrieved_docs)
return ollama_llm(question, formatted_content)
Crear la interfaz de Gradio
def ask_question(pdf_bytes, question):
text_splitter, vectorstore, retriever = process_pdf(pdf_bytes)
if text_splitter is None:
return "No se ha subido ningún PDF."
result = rag_chain(question, text_splitter, vectorstore, retriever)
return result
interface = gr.Interface(
fn=ask_question,
inputs=[gr.File(label="Sube un PDF (opcional)"), gr.Textbox(label="Pregunta algo")],
outputs="text",
title="Preguntas sobre tu PDF",
description="Usa DeepSeek-R1 para responder preguntas sobre el contenido de un documento PDF.",
)
interface.launch()
DeepSeek R1 ya está disponible en Azure AI Foundry y GitHub
Cómo utilizar DeepSeek en el catálogo de modelos

- Si no tiene una suscripción a Azure, puede registrarse para obtener una cuenta de Azure aquí .
- Busque DeepSeek R1 en el catálogo de modelos.
- Abra la tarjeta del modelo en el catálogo de modelos en Azure AI Foundry.
- Haga clic en implementar para obtener la API de inferencia y la clave y también para acceder al área de juegos.
- En menos de un minuto, deberías llegar a la página de implementación que muestra la API y la clave. Puedes probar tus indicaciones en el área de juegos.
- Puede utilizar la API y la clave con varios clientes.
Comience a usar Azure AI Foundry aquí y seleccione el modelo DeepSeek.
En GitHub, puedes explorar recursos adicionales y guías paso a paso para integrar DeepSeek R1 sin problemas en tus aplicaciones. Lee la publicación del blog sobre modelos de GitHub .
Los clientes podrán utilizar versiones refinadas del modelo DeepSeek R1 para ejecutarlo localmente en sus PC Copilot+. Lea la publicación del blog de Windows Developer .
Mejores prácticas
- Preparación de datos : asegúrese de que sus datos estén limpios, validados y preprocesados para lograr los mejores resultados.
- Monitoreo del modelo : monitoree periódicamente la precisión del modelo y vuelva a entrenarlo utilizando conjuntos de datos actualizados según sea necesario.
- Seguridad : proteja sus claves API y emplee medidas sólidas de protección de datos para garantizar el cumplimiento de las regulaciones de privacidad de datos.
- Documentación : consulte la documentación oficial de DeepSeek para obtener las últimas actualizaciones y configuraciones avanzadas.
DeepSeek ofrece a los usuarios un conjunto de herramientas avanzado para extraer información de conjuntos de datos complejos. Si sigue esta guía completa, podrá aprovechar sus capacidades para impulsar la innovación y lograr el éxito basado en datos. Esté atento a las actualizaciones y explore todo el potencial de DeepSeek a medida que evoluciona.
Conclusiones:
Ejecutar DeepSeek-R1 localmente con Ollama ofrece una solución eficiente, privada y flexible para tareas de inferencia con IA. Ya sea interactuando desde la terminal, accediendo a través de la API o integrando el modelo en una aplicación Python, puedes aprovechar su potencia para tareas de procesamiento de lenguaje natural, análisis de documentos y más.
Esta progresión de DeepSeek-R1-Zero a DeepSeek-R1 representa un importante proceso de aprendizaje en la investigación. Mientras que DeepSeek-R1-Zero demostró que el aprendizaje por refuerzo puro podía funcionar, DeepSeek-R1 demostró cómo la combinación del aprendizaje supervisado con el aprendizaje por refuerzo podía crear un modelo aún más capaz y práctico.
DeepSeek la IA como ChatGPT pero Open Source (es Gratis)
3 Libros De Regalo con 100 Prompts. Aprende a Ejecutar la IA de forma local (Privada), a usar Agentes IA con Deepseek
Accede ahora desde este enlace: https://achirou.com/deepseek
Lo que aprenderás
- Creación de un Agente de IA con Deepseek
- Prompt engineering (ingenieria de prompt) con deepseek
- Uso de Deepseek con Practica para diferentes tareas (creación de ebook, Marketing digital, etc)
- Creación de Agente de IA con deepseek
- Practica de creación de Agente con IA
- Ejecuta la IA Generativa LLM de forma Local para mayor Privacidad

¿Te gustaría aprovechar el poder de la inteligencia artificial sin depender de herramientas de pago? DeepSeek es una alternativa open-source a ChatGPT que te permite automatizar tareas, mejorar tu productividad y ofrecer servicios basados en IA sin restricciones.
En este curso 100% práctico, aprenderás a utilizar DeepSeek para diferentes aplicaciones, desde la generación de contenido hasta el marketing digital y la automatización de procesos. Además, te enseñaremos a crear tu propio agente de IA personalizado con DeepSeek, lo que te permitirá desarrollar soluciones inteligentes adaptadas a tus necesidades o a las de tus clientes.
Como bono especial, recibirás 3 libros con 100 prompts para que puedas aplicar lo aprendido de inmediato en distintas áreas:
- Vender servicios con IA
- Aumentar tu productividad
- Simplificar tareas complejas
¿Qué aprenderás?
Creación de un agente de IA con DeepSeek
Ingeniería de prompt aplicada a DeepSeek
Uso práctico de DeepSeek en tareas como:
- Creación de eBooks
- Automatización de contenido
- Estrategias de marketing digital
Implementación de agentes de IA en distintos casos de uso
Ejercicios prácticos para desarrollar tus propias soluciones
Este curso es ideal para freelancers, emprendedores, marketers y cualquier persona que quiera aprovechar la IA sin costos adicionales.
¡Únete ahora y descubre cómo DeepSeek puede transformar tu manera de trabajar!
Accede ahora desde este enlace: https://achirou.com/deepseek
No te detengas, sigue avanzando
Aprende con nuestros más de 100 cursos que tenemos disponibles para vos
¿Te gustaría enterarte de cuando lanzamos descuentos y nuevos cursos?

Sobre la autora
Romina Orlando
Con más de 20 años de experiencia en liderazgo, gestión financiera y empresarial. Brindo Educación y Consultoría a profesionales, bancos y empresas. Puedes seguirme en mis redes:
Compartimos estos recursos para ayudar a la comunidad. COMPARTE y Siéntete libre de agregar más sugerencias en los comentarios a continuación, respondemos todos y cada uno de los comentarios.