Skip to content

facil-pos/Curso_Gen_AI_moresales

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 

Repository files navigation

Python

Python es uno de los lenguajes de programación con más crecimiento en los últimos años, su campo de aplicación es tan amplio que ve desde la robótica hasta el desarrollo web, ciberseguridad e Inteligencia Artificial

Temario

Conceptos Basicos

  • Sintaxis
  • Data Types

Manejo de datos

  • Base de datos
  • ORM

Matematicas

Las bases de matematicas son importantes acontinuacion dejo material de estudio en khanacademy

Huggin Face

Hugging Face, es de las empresas y plataformas más importantes en el boom de la IA, podemos definir la plataforma como un repositorio tipo github de modelos, esta plataforma tambien nos ofrece librerias y hasta infraestructura cloud para trabajar con modelo de AI.

Temario

Huggingface hud

  • Crea una cuenta en https://huggingface.co/
  • spaces : Esta es una herramienta para implementar demos de ML, a grades rasgos es nos permite desplegar proyectos pequeños con AI https://huggingface.co/docs/hub/spaces-overview
  • repository : Funciona como un respositorio de git, nos permite almacenar nuestros modelos, dataset y spaces.
  • models : Es una colección de modelos de IA para tareas variadas.

Huggingface Api

  • Proyecto 1 : Utilizando una api de hugginface de un modelo llm crea una aplicacion donde el usuario pueda pueda realizar preguntas y el modelo le responda.
  • Proyecto 2 : implemente multiples modelos, utilizando la api cree una clase que le permite iterar de un modelo llm a otro.

Introduccion a Transformers

Transformer se presentó por primera vez en la Attention is all you need en 2017 por Vaswani et al.

  • Los modelos de transformador funcionan según el principio de predicción de la palabra siguiente
    • Los Transformers no solo predicen la palabra siguiente, pero este princio es clave en los modelo GPT que se usan en ChatGPT
    • A partir de un mensaje de texto del usuario, el modelo puede inferir cuál es la palabra más probable que seguirá a esta entrada.
  • Arquitectura de un modelo de transformador
    • Embedding
      • La entrada de texto se divide en tokens
      • Los tokens son vectores numéricos
      • Captan el significado semántico de las palabras
      • embeddings posicionales
    • Transformer Block
      • Procesa y transforma los datos de entrada
      • Cada bloque incluye
      • Mecanismo de atención
        • Es un componente clave de los Transformers que calcula qué partes del texto son más relevantes en un contexto dado.
        • La atención incluye una operación matemática llamada atención escalada por productos punto (scaled dot-product attention).
        • Identifica relaciones entre palabras
      • Capa MLP (perceptrón multicapa)
        • Una red feed-forward
          • Procesa la información en una dirección, de la entrada a la salida, sin bucles ni conexiones de retroalimentación.
        • MLP procesa tokens de forma independiente.
        • Enruta la información entre los tokens.
        • Refina la representación de cada token
  • Probabilidades de salida:
    • Utiliza capas lineales y softmax
    • Transforma las incrustaciones procesadas
    • Genera probabilidades
    • Permite predecir los tokens siguientes

Ingeniería de Prompt

La Ingeniería de Prompt es la práctica de diseñar, estructurar y optimizar las entradas (o prompts) utilizadas para interactuar con modelos de lenguaje, como los de OpenAI o Hugging Face, con el fin de obtener respuestas precisas, relevantes y alineadas con un objetivo específico.

En esencia, es el arte y la técnica de "hablar" con un modelo de IA para aprovechar al máximo su capacidad.

Puedes configurar algunos parámetros para obtener diferentes resultados.

  • Temperature : En resumen, cuanto menor sea la temperatura, más deterministas serán los resultados en el sentido de que siempre se elige el siguiente token más probable. Aumentar la temperatura podría llevar a más aleatoriedad y fomentar resultados más diversos o creativos.

  • Max Tokens (Longitud): Establece la longitud máxima de la respuesta. Para respuestas concisas y directas, es adecuado un rango más bajo (por ejemplo, 50-100 tokens). Para explicaciones o narraciones más detalladas, puede utilizarse un rango superior (por ejemplo, 150-500 tokens).

  • Penalización de frecuencia: Reduce la probabilidad de que el modelo repita la misma palabra o frase. Un valor bajo (por ejemplo, 0,0-0,5) permite cierta repetición, lo que puede ser útil para enfatizar en la escritura o el discurso. Un ajuste más alto (por ejemplo, 0,5-1,0) minimiza la repetición, lo que resulta útil para generar contenidos diversos y expansivos.

  • Penalización por presencia: Disuade al modelo de mencionar repetidamente el mismo tema o concepto. Un valor bajo (p. ej., 0,0-0,5) es adecuado para contenidos centrados en un tema específico, mientras que un valor alto (p. ej., 0,5-1,0) anima al modelo a explorar una gama más amplia de temas, útil para realizar lluvias de ideas o explorar diferentes aspectos de un tema.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published