Bibliotecas escritas en Jupyter Notebook

neural-tangents

Redes neuronales infinitas rápidas y fáciles en Python.
  • 2.1k
  • Apache License 2.0

GPEN

  • 2.0k

carefree-creator

La magia de la IA se encuentra con el tablero de dibujo infinito.
  • 2.0k
  • MIT

FinanceDatabase

Esta es una base de datos de más de 300 000 símbolos que contiene acciones, ETF, fondos, índices, divisas, criptomonedas y mercados monetarios.
  • 2.0k
  • MIT

awesome-notebooks

Plantillas de datos e IA listas para usar, organizadas por herramientas para impulsar sus proyectos y productos de datos en minutos. 😎 publicado por la comunidad Naas..
  • 2.0k
  • BSD 3-clause "New" or "Revised"

zero-to-mastery-ml

Todos los materiales del curso de aprendizaje automático y ciencia de datos de cero a dominio.
  • 2.0k

TensorRT

Compilador PyTorch/TorchScript/FX para GPU NVIDIA usando TensorRT (por pytorch).
  • 2.0k
  • BSD 3-clause "New" or "Revised"

tensorflow-onnx

Convierta los modelos TensorFlow, Keras, Tensorflow.js y Tflite a ONNX.
  • 2.0k
  • Apache License 2.0

100-pandas-puzzles

100 acertijos de datos para pandas, que van desde cortos y simples hasta súper complicados (60% completado).
  • 2.0k
  • MIT

fma

FMA: un conjunto de datos para el análisis musical.
  • 2.0k
  • MIT

kubric

Una canalización de generación de datos para crear videos sintéticos semirrealistas de varios objetos con anotaciones ricas, como máscaras de segmentación de instancias, mapas de profundidad y flujo óptico.
  • 2.0k
  • Apache License 2.0

gs-quant

Kit de herramientas Python para finanzas cuantitativas.
  • 1.9k
  • Apache License 2.0

checklist

Más allá de la precisión: Pruebas de comportamiento de modelos NLP con CheckList.
  • 1.9k
  • MIT

SimCLR

Implementación PyTorch de SimCLR: un marco simple para el aprendizaje contrastivo de representaciones visuales (por sthalles).
  • 1.9k
  • MIT

FinMind

Open Data, more than 50 financial data. 提供超過 50 個金融資料(台股為主),每天更新 https://finmind.github.io/.
  • 1.9k
  • Apache License 2.0

Alpaca-CoT

We unified the interfaces of instruction-tuning data (e.g., CoT data), multiple LLMs and parameter-efficient methods (e.g., lora, p-tuning) together for easy use. Meanwhile, we created a new branch to build a Tabular LLM.(我们分别统一了丰富的IFT数据(如CoT数据,目前仍不断扩充)、多种训练效率方法(如lora,p-tuning)以及多种LLMs,三个层面上的接口,打造方便研究人员上手的LLM-IFT研究平台。同时tabular_llm分支构建了面向表格智能任务的LLM。.
  • 1.9k
  • Apache License 2.0

CodeSearchNet

Conjuntos de datos, herramientas y puntos de referencia para el aprendizaje de representación de código.
  • 1.9k
  • MIT

MEDIUM_NoteBook

Repositorio que contiene cuadernos de mis publicaciones en Medium.
  • 1.9k
  • MIT

jellyfish

🪼 una biblioteca de python para hacer coincidencias aproximadas y fonéticas de cadenas.
  • 1.9k
  • MIT

SfMLearner

Un marco de aprendizaje no supervisado para la estimación de la profundidad y el movimiento del ego a partir de videos monoculares.
  • 1.9k
  • MIT

DeepLearningForNLPInPytorch

Un tutorial de IPython Notebook sobre el aprendizaje profundo para el procesamiento del lenguaje natural, incluida la predicción de estructuras.
  • 1.9k
  • MIT

Andrew-NG-Notes

Este es Andrew NG Coursera Notas manuscritas..
  • 1.8k

simple-llm-finetuner

Interfaz de usuario simple para el ajuste fino del modelo LLM.
  • 1.8k
  • MIT

NAB

El punto de referencia de la anomalía de Numenta.
  • 1.8k
  • GNU Affero General Public License v3.0

pymc-resources

Recursos educativos PyMC.
  • 1.8k
  • MIT

ecco

Explicar, analizar y visualizar modelos de lenguaje de PNL. Ecco crea visualizaciones interactivas directamente en cuadernos Jupyter que explican el comportamiento de los modelos de lenguaje basados ​​en Transformer (como GPT2, BERT, RoBERTA, T5 y T0).
  • 1.8k
  • BSD 3-clause "New" or "Revised"

stable-diffusion

  • 1.7k
  • GNU Affero General Public License v3.0

ganspace

Descubriendo controles GAN interpretables [NeurIPS 2020].
  • 1.7k
  • Apache License 2.0

pythoncode-tutorials

Los tutoriales de código de Python.
  • 1.7k
  • MIT

chain-of-thought-hub

Evaluación comparativa de la capacidad de razonamiento complejo de los modelos de lenguaje grande con indicaciones de cadena de pensamiento.
  • 1.7k
  • MIT