Installation et fonctionnalités d’AutoGPT

par | Avr 20, 2023 | Chatgpt | 0 commentaires

Louis

[ad_1]

Dans cet article, vous pouvez lire tout ce dont vous avez besoin pour commencer à jouer avec Bibliothèque open source AutoGPT.

🚀 Caractéristiques

  • 🌐 Accès Internet pour les recherches et la collecte d’informations
  • 💾 Gestion de la mémoire à long et court terme
  • 🧠 instances GPT-4 pour la génération de texte
  • 🔗 Accès aux sites Web et plateformes populaires
  • 🗃️ Stockage de fichiers et résumé avec GPT-3.5

📋 Exigences

Facultatif:

  • Clé ElevenLabs (si vous voulez que l’IA parle)

💾 Mise en place

Pour installer Auto-GPT, procédez comme suit :

  1. Assurez-vous d’avoir tout exigences ci-dessus, sinon, installez-les/récupérez-les.

Les commandes suivantes doivent être exécutées dans une fenêtre CMD, Bash ou Powershell. Pour ce faire, accédez à un dossier sur votre ordinateur, cliquez sur le chemin du dossier en haut et tapez CMD, puis appuyez sur Entrée.

  1. Cloner le référentiel : pour cette étape, vous avez besoin d’installer Git, mais vous pouvez télécharger le fichier zip en cliquant sur le bouton en haut de cette page ☝️
git clone 
  1. Accédez au répertoire du projet : (Tapez ceci dans votre fenêtre CMD, votre objectif est de naviguer dans la fenêtre CMD vers le référentiel que vous venez de télécharger)
cd 'Auto-GPT'
  1. Installez les dépendances requises : (Encore une fois, tapez ceci dans votre fenêtre CMD)
pip install -r requirements.txt
  1. Renommer .env.template pour .env et complétez votre OPENAI_API_KEY. Si vous prévoyez d’utiliser le mode vocal, veuillez compléter votre ELEVEN_LABS_API_KEY aussi.
  • Obtenez votre clé API OpenAI auprès de : https://platform.openai.com/account/api-keys.
  • Obtenez votre clé API ElevenLabs auprès de : https://elevenlabs.io. Vous pouvez afficher votre clé xi-api en utilisant l’onglet « Profil » sur le site Web.
  • Si vous souhaitez utiliser GPT sur une instance Azure, configurez USE_AZURE pour True et après:
    • Renommer azure.yaml.template pour azure.yaml et fournir des informations pertinentes azure_api_base, azure_api_version et tous les ID de mise en œuvre pour les modèles pertinents dans le azure_model_map section:
      • fast_llm_model_deployment_id – votre ID de déploiement gpt-3.5-turbo ou gpt-4
      • smart_llm_model_deployment_id – votre identifiant d’implémentation gpt-4
      • embedding_model_deployment_id – votre identifiant d’implémentation text-embedding-ada-002 v2
    • Spécifiez toutes ces valeurs sous forme de chaînes entre guillemets doubles
    • Les détails peuvent être trouvés ici: https://pypi.org/project/openai/ dans le Microsoft Azure Endpoints rubrique et ici : https://learn.microsoft.com/en-us/azure/cognitive-services/openai/tutorials/embeddings?tabs=command-line pour le modèle d’intégration.
A lire  Auto-GPT vs ChatGPT : en quoi ils diffèrent guide et avis

🔧 Utilisation

  1. exécuter le main.py Script Python dans votre terminal : (Tapez ceci dans votre fenêtre CMD)
python scripts/main.py
  1. Après chacune des actions d’AUTO-GPT, tapez « NEXT COMMAND » pour les autoriser à continuer.
  2. Pour quitter le programme, tapez « exit » et appuyez sur Entrée.

enregistrements

Vous trouverez les journaux d’activité et d’erreurs dans le dossier ./logs

Pour générer des journaux de débogage :

python scripts/main.py --debug

🗣️ Mode vocal

Utilisez ceci pour utiliser TTS pour Auto-GPT

python scripts/main.py --speak

🔍Configuration de la clé API Google

Cette section est facultative, veuillez utiliser l’API Google officielle si vous rencontrez des problèmes avec l’erreur 429 lors d’une recherche Google. Utilisez le google_official_search commande, vous devez définir vos clés API Google dans vos variables d’environnement.

  1. Allez à la Console cloud de Google.
  2. Si vous n’avez pas encore de compte, créez-en un et connectez-vous.
  3. Créez un nouveau projet en cliquant sur le menu déroulant « Sélectionner un projet » en haut de la page et en cliquant sur « Nouveau projet ». Donnez-lui un nom et cliquez sur « Créer ».
  4. Allez à la Tableau de bord API et services et cliquez sur « Activer l’API et les services ». Trouvez « API de recherche personnalisée » et cliquez dessus, puis cliquez sur « Activer ».
  5. Allez à la Crédits page et cliquez sur « Créer des informations d’identification ». Choisissez « Clé API ».
  6. Copiez la clé API et définissez-la comme une variable d’environnement nommée GOOGLE_API_KEY sur votre appareil. Voir la définition des variables d’environnement ci-dessous.
  7. Allez à la Moteur de recherche personnalisé page et cliquez sur « Ajouter ».
  8. Configurez votre moteur de recherche en suivant les instructions. Vous pouvez choisir de rechercher sur l’ensemble du Web ou sur des sites spécifiques.
  9. Une fois que vous avez créé votre moteur de recherche, cliquez sur « Panneau de configuration » puis sur « Bases ». Copiez le « Search Engine ID » et définissez-le comme une variable d’environnement nommée CUSTOM_SEARCH_ENGINE_ID sur votre appareil. Voir la définition des variables d’environnement ci-dessous.
A lire  Chatbot GPT en Français : Une innovation révolutionnaire dans les échanges en temps réel

N’oubliez pas que votre quota quotidien gratuit de recherche personnalisée n’autorise que 100 recherches maximum. Pour augmenter cette limite, vous devez attribuer un compte de facturation au projet pour bénéficier jusqu’à 10 000 recherches quotidiennes.

Définition des variables d’environnement

Pour les utilisateurs de Windows :

setx GOOGLE_API_KEY "YOUR_GOOGLE_API_KEY"
setx CUSTOM_SEARCH_ENGINE_ID "YOUR_CUSTOM_SEARCH_ENGINE_ID"

Pour les utilisateurs macOS et Linux :

export GOOGLE_API_KEY="YOUR_GOOGLE_API_KEY"
export CUSTOM_SEARCH_ENGINE_ID="YOUR_CUSTOM_SEARCH_ENGINE_ID"

Configuration Redis

Installez le bureau ancrable.

Courir:

docker run -d --name redis-stack-server -p 6379:6379 redis/redis-stack-server:latest

Regarder https://hub.docker.com/r/redis/redis-stack-server pour définir un mot de passe et des paramètres supplémentaires.

Définissez les variables d’environnement suivantes :

MEMORY_BACKEND=redis
REDIS_HOST=localhost
REDIS_PORT=6379
REDIS_PASSWORD=

Notez que cela n’est pas conçu pour fonctionner devant Internet et n’est pas sécurisé, veuillez ne pas exposer redis à Internet sans mot de passe ou pas du tout.

Vous pouvez éventuellement définir

WIPE_REDIS_ON_START=False

Pour préserver la mémoire stockée dans Redis.

Vous pouvez spécifier l’index de mémoire pour redis en utilisant ce qui suit :

MEMORY_INDEX=whatever

🌲 Configuration de la clé API Pinecone

Pinecone permet le stockage de grandes quantités de mémoire vectorielle, permettant uniquement aux mémoires pertinentes pour l’agent d’être chargées à un moment donné.

  1. Va ananas et créez un compte si vous n’en avez pas déjà un.
  2. Choisir la Starter prévoir d’éviter d’être inculpé.
  3. Recherchez votre clé API et votre région sous le projet par défaut dans la barre latérale gauche.

Définition des variables d’environnement

Il suffit de les mettre dans .env archive.

Vous pouvez également les définir à partir de la ligne de commande (avancé) :

Pour les utilisateurs de Windows :

setx PINECONE_API_KEY "YOUR_PINECONE_API_KEY"
setx PINECONE_ENV "Your pinecone region" # something like: us-east4-gcp

Pour les utilisateurs macOS et Linux :

export PINECONE_API_KEY="YOUR_PINECONE_API_KEY"
export PINECONE_ENV="Your pinecone region" # something like: us-east4-gcp

Définition de votre type de cache

Par défaut, Auto-GPT utilisera LocalCache au lieu de redis ou Pinecone.

Pour passer à l’un ou l’autre, changez le MEMORY_BACKEND env à la valeur que vous voulez :

local (par défaut) utilise un fichier de cache JSON local pinecone utilise le compte Pinecone.io que vous avez configuré dans vos paramètres ENV redis utilisera le cache redis que vous avez configuré

A lire  Toutes les dernières mises à jour que vous devez savoir sur ChatGPT

Afficher l’utilisation de la mémoire

  1. Afficher l’utilisation de la mémoire à l’aide de --debug drapeau 🙂

💀 Mode continu ⚠️

exécuter l’IA sans Autorisation des utilisateurs, 100% automatisée. Le mode continu n’est pas recommandé. C’est potentiellement dangereux et peut faire fonctionner votre IA pour toujours ou prendre des mesures qu’elle n’autoriserait pas normalement. Utilisez à vos risques et périls.

  1. exécuter le main.py Script Python dans votre terminal :
python scripts/main.py --continuous

  1. Pour quitter le programme, appuyez sur Ctrl + C

Mode GPT3.5 UNIQUEMENT

Si vous n’avez pas accès à l’API GPT4, ce mode vous permettra d’utiliser Auto-GPT !

python scripts/main.py --gpt3only

Il est recommandé d’utiliser une machine virtuelle pour les tâches nécessitant des mesures de sécurité élevées afin d’éviter tout dommage potentiel au système et aux données de l’ordinateur principal.

🖼 Génération d’images

Par défaut, Auto-GPT utilise DALL-e pour la génération d’images. Pour utiliser Stable Diffusion, un Jeton d’API HuggingFace est requis.

Une fois que vous avez un jeton, définissez ces variables dans votre .env:

IMAGE_PROVIDER=sd
HUGGINGFACE_API_TOKEN="YOUR_HUGGINGFACE_API_TOKEN"

⚠️ Limites

Cette expérience vise à montrer le potentiel du GPT-4, mais elle a quelques limites :

  1. Ce n’est pas une application ou un produit raffiné, juste une expérience.
  2. Cela peut ne pas fonctionner correctement dans des scénarios commerciaux complexes et réels. En fait, si vous le faites vraiment, partagez vos résultats !
  3. Assez coûteux à exécuter, alors définissez et contrôlez vos limites de clé API avec OpenAI !

faire des tests

Pour exécuter des tests, exécutez la commande suivante :

python -m unittest discover tests

Pour exécuter des tests et afficher la couverture, exécutez la commande suivante :

coverage run -m unittest discover tests

exécuter le filtre

Ce projet utilise échelle8 pour les peluches. Pour exécuter le linter, exécutez la commande suivante :

flake8 scripts/ tests/

# Or, if you want to run flake8 with the same configuration as the CI:
flake8 scripts/ tests/ --select E303,W293,W291,W292,E305

[ad_2]