Created
October 14, 2024 15:38
-
-
Save k-nowicki/089aa34959e59ede9ac1ff25aa63806f to your computer and use it in GitHub Desktop.
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
| conda create -n ag python=3.11 | |
| conda activate ag | |
| pip install autogenstudio | |
| autogenstudio ui --port 8081 |
Author
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Instrukcja instalacji AutogenStudio
Do filmu: https://youtu.be/vE0E63YsiR4
Instalacja AutogenStudio
1. Conda (menadżer środowisk Python)
Ściągnij i zainstaluj odpowiednią dla twojego systemu wersję minicondy: https://docs.anaconda.com/miniconda
W czasie instalacji zwróć uwagę i zaznacz chekckbox "Add miniconda3 to my PATH environment variable"
2. AutogenStudio
Uruchom terminal
Wpisz po kolei komendy:
2.a Tworzenie środowiska dla Autogen:
conda create -n ag python=3.112.b Aktywacja utworzonego środowiska:
conda activate ag2.c Instalacja AuteGenStudio:
pip install autogenstudio2.d Uruchomienie aplikacji:
autogenstudio ui --port 8081Otwórz w przeglądarce http://127.0.0.1:8081
Instalacja modeli działających lokalnie.
Lista dostępnych modeli: https://ollama.com/library
1. Ollama
ollama run <nazwa_modelu>, np:ollama run mistralSpowoduje to pobranie i uruchomienie modelu (mistral 7b w tym przypadku)
2. LiteLLM (Server API)
conda activate agpip install LiteLLM*Jeśli zobaczysz błąd "ModuleNotFoundError: No module named 'backoff'" uruchom:
pip install LiteLLM[proxy]I spróbój ponownie pkt 3.
litellm --model ollama/mistral