| 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680 |
- import os
- import json
- import logging
- import base64
- from io import BytesIO
- import asyncio
- import mysql.connector
- from mysql.connector import Error
- from PIL import Image
- import tiktoken
- import discord
- from discord.ext import commands
- from dotenv import load_dotenv
- from openai import AsyncOpenAI, OpenAIError
- # =================================
- # Configuration et Initialisation
- # =================================
- # Charger les variables d'environnement depuis le fichier .env
- load_dotenv()
- DISCORD_TOKEN = os.getenv('DISCORD_TOKEN')
- OPENAI_API_KEY = os.getenv('OPENAI_API_KEY')
- DISCORD_CHANNEL_ID = os.getenv('DISCORD_CHANNEL_ID')
- PERSONALITY_PROMPT_FILE = os.getenv('PERSONALITY_PROMPT_FILE', 'personality_prompt.txt')
- IMAGE_ANALYSIS_PROMPT_FILE = os.getenv('IMAGE_ANALYSIS_PROMPT_FILE', 'image_analysis_prompt.txt')
- BOT_NAME = os.getenv('BOT_NAME', 'ChatBot')
- BOT_VERSION = "2.7.0"
- # Validation des variables d'environnement
- required_env_vars = {
- 'DISCORD_TOKEN': DISCORD_TOKEN,
- 'OPENAI_API_KEY': OPENAI_API_KEY,
- 'DISCORD_CHANNEL_ID': DISCORD_CHANNEL_ID,
- 'IMAGE_ANALYSIS_PROMPT_FILE': IMAGE_ANALYSIS_PROMPT_FILE
- }
- missing_vars = [var for var, val in required_env_vars.items() if val is None]
- if missing_vars:
- raise ValueError(f"Les variables d'environnement suivantes ne sont pas définies: {', '.join(missing_vars)}")
- # Vérification de l'existence des fichiers de prompt
- for file_var, file_path in [('PERSONALITY_PROMPT_FILE', PERSONALITY_PROMPT_FILE),
- ('IMAGE_ANALYSIS_PROMPT_FILE', IMAGE_ANALYSIS_PROMPT_FILE)]:
- if not os.path.isfile(file_path):
- raise FileNotFoundError(f"Le fichier de prompt '{file_var}' '{file_path}' est introuvable.")
- # Lire les prompts depuis les fichiers
- with open(PERSONALITY_PROMPT_FILE, 'r', encoding='utf-8') as f:
- PERSONALITY_PROMPT = f.read().strip()
- with open(IMAGE_ANALYSIS_PROMPT_FILE, 'r', encoding='utf-8') as f:
- IMAGE_ANALYSIS_PROMPT = f.read().strip()
- # Configurer les logs
- LOG_FORMAT = '%(asctime)s : %(name)s : %(levelname)s : %(message)s'
- logging.basicConfig(
- handlers=[
- logging.FileHandler("./chatbot.log", mode='a', encoding='utf-8'),
- logging.StreamHandler()
- ],
- format=LOG_FORMAT,
- level=logging.INFO
- )
- logger = logging.getLogger(BOT_NAME)
- logger.setLevel(logging.INFO)
- logging.getLogger('httpx').setLevel(logging.WARNING) # Réduire le niveau de log pour 'httpx'
- # Initialiser les intents Discord
- intents = discord.Intents.default()
- intents.message_content = True
- # Initialiser le client OpenAI asynchrone
- openai_client = AsyncOpenAI(api_key=OPENAI_API_KEY)
- # Convertir l'ID du canal Discord en entier
- try:
- chatgpt_channel_id = int(DISCORD_CHANNEL_ID)
- except ValueError:
- raise ValueError("L'ID du canal Discord est invalide. Assurez-vous qu'il s'agit d'un entier.")
- # =====================================
- # Gestion de la Base de Données MariaDB
- # =====================================
- class DatabaseManager:
- def __init__(self):
- self.connection = self.create_db_connection()
- def create_db_connection(self):
- try:
- connection = mysql.connector.connect(
- host=os.getenv('DB_HOST'),
- user=os.getenv('DB_USER'),
- password=os.getenv('DB_PASSWORD'),
- database=os.getenv('DB_NAME'),
- charset='utf8mb4',
- collation='utf8mb4_unicode_ci'
- )
- if connection.is_connected():
- logger.info("Connexion réussie à MariaDB")
- return connection
- except Error as e:
- logger.error(f"Erreur de connexion à MariaDB: {e}")
- return None
- def load_conversation_history(self):
- global conversation_history
- try:
- with self.connection.cursor(dictionary=True) as cursor:
- cursor.execute("SELECT role, content FROM conversation_history ORDER BY id ASC")
- rows = cursor.fetchall()
- conversation_history = [
- row for row in rows
- if not (row['role'] == "system" and row['content'] == PERSONALITY_PROMPT)
- ]
- logger.info("Historique chargé depuis la base de données")
- except Error as e:
- logger.error(f"Erreur lors du chargement de l'historique depuis la base de données: {e}")
- conversation_history = []
- def save_message(self, role, content):
- try:
- with self.connection.cursor() as cursor:
- sql = "INSERT INTO conversation_history (role, content) VALUES (%s, %s)"
- cursor.execute(sql, (role, json.dumps(content, ensure_ascii=False) if isinstance(content, (dict, list)) else content))
- self.connection.commit()
- logger.debug(f"Message sauvegardé dans la base de données: {role} - {content[:50]}...")
- except Error as e:
- logger.error(f"Erreur lors de la sauvegarde du message dans la base de données: {e}")
- def delete_old_image_analyses(self):
- try:
- with self.connection.cursor() as cursor:
- cursor.execute("DELETE FROM conversation_history WHERE role = 'system' AND content LIKE '__IMAGE_ANALYSIS__:%'")
- self.connection.commit()
- logger.info("Toutes les anciennes analyses d'image ont été supprimées de la base de données.")
- except Error as e:
- logger.error(f"Erreur lors de la suppression des analyses d'image: {e}")
- def reset_history(self):
- try:
- with self.connection.cursor() as cursor:
- cursor.execute("DELETE FROM conversation_history")
- self.connection.commit()
- logger.info("Historique des conversations réinitialisé.")
- except Error as e:
- logger.error(f"Erreur lors de la réinitialisation de l'historique: {e}")
- def delete_old_messages(self, limit):
- try:
- with self.connection.cursor() as cursor:
- cursor.execute("DELETE FROM conversation_history ORDER BY id ASC LIMIT %s", (limit,))
- self.connection.commit()
- logger.debug(f"{limit} messages les plus anciens ont été supprimés de la base de données pour maintenir l'historique à 150 messages.")
- except Error as e:
- logger.error(f"Erreur lors de la suppression des anciens messages: {e}")
- def close_connection(self):
- if self.connection and self.connection.is_connected():
- self.connection.close()
- logger.info("Connexion à la base de données fermée.")
- # ===============================
- # Gestion de l'Historique des Messages
- # ===============================
- conversation_history = []
- last_analysis_index = None
- messages_since_last_analysis = 0
- # ====================
- # Fonctions Utilitaires
- # ====================
- def has_text(text):
- """Détermine si le texte fourni est non vide après suppression des espaces."""
- return bool(text.strip())
- def resize_image(image_bytes, mode='high', attachment_filename=None):
- """Redimensionne l'image selon le mode spécifié."""
- try:
- with Image.open(BytesIO(image_bytes)) as img:
- original_format = img.format # Stocker le format original
- if mode == 'high':
- img.thumbnail((2000, 2000))
- if min(img.size) < 768:
- scale = 768 / min(img.size)
- new_size = tuple(int(x * scale) for x in img.size)
- img = img.resize(new_size, Image.Resampling.LANCZOS)
- elif mode == 'low':
- img = img.resize((512, 512))
- buffer = BytesIO()
- img_format = img.format or _infer_image_format(attachment_filename)
- img.save(buffer, format=img_format)
- return buffer.getvalue()
- except Exception as e:
- logger.error(f"Erreur lors du redimensionnement de l'image : {e}")
- raise
- def _infer_image_format(filename):
- """Déduit le format de l'image basé sur l'extension du fichier."""
- if filename:
- _, ext = os.path.splitext(filename)
- ext = ext.lower()
- format_mapping = {
- '.jpg': 'JPEG',
- '.jpeg': 'JPEG',
- '.png': 'PNG',
- '.gif': 'GIF',
- '.bmp': 'BMP',
- '.tiff': 'TIFF'
- }
- return format_mapping.get(ext, 'PNG')
- return 'PNG'
- def extract_text_from_message(message):
- """Extrait le texte du message."""
- content = message.get("content", "")
- if isinstance(content, list):
- texts = [part.get("text", "") for part in content if isinstance(part, dict) and part.get("text")]
- return ' '.join(texts)
- elif isinstance(content, str):
- return content
- return ""
- def calculate_cost(usage, model='gpt-4o-mini'):
- """Calcule le coût basé sur l'utilisation des tokens."""
- input_tokens = usage.get('prompt_tokens', 0)
- output_tokens = usage.get('completion_tokens', 0)
- model_costs = {
- 'gpt-4o': {
- 'input_rate': 5.00 / 1_000_000, # 5$ pour 1M tokens d'entrée
- 'output_rate': 15.00 / 1_000_000 # 15$ pour 1M tokens de sortie
- },
- 'gpt-4o-mini': {
- 'input_rate': 0.150 / 1_000_000, # 0.150$ pour 1M tokens d'entrée
- 'output_rate': 0.600 / 1_000_000 # 0.600$ pour 1M tokens de sortie
- }
- }
- rates = model_costs.get(model, model_costs['gpt-4o-mini'])
- input_cost = input_tokens * rates['input_rate']
- output_cost = output_tokens * rates['output_rate']
- total_cost = input_cost + output_cost
- if model not in model_costs:
- logger.warning(f"Modèle inconnu '{model}'. Utilisation des tarifs par défaut pour 'gpt-4o-mini'.")
- return input_tokens, output_tokens, total_cost
- async def read_text_file(attachment):
- """Lit le contenu d'un fichier texte attaché."""
- file_bytes = await attachment.read()
- return file_bytes.decode('utf-8')
- async def encode_image_from_attachment(attachment, mode='high'):
- """Encode une image depuis une pièce jointe en base64 après redimensionnement."""
- image_data = await attachment.read()
- resized_image = resize_image(image_data, mode=mode, attachment_filename=attachment.filename)
- return base64.b64encode(resized_image).decode('utf-8')
- # =================================
- # Interaction avec OpenAI
- # =================================
- # Charger l'encodeur pour le modèle GPT-4o mini
- encoding = tiktoken.get_encoding("o200k_base")
- async def call_openai_model(model, messages, max_tokens, temperature=0.8):
- """Appelle un modèle OpenAI avec les paramètres spécifiés et gère la réponse."""
- try:
- response = await openai_client.chat.completions.create(
- model=model,
- messages=messages,
- max_tokens=max_tokens,
- temperature=temperature
- )
-
- if response and response.choices:
- reply = response.choices[0].message.content
- # Ne pas logger les réponses de 'gpt-4o-mini' et 'gpt-4o'
- if model not in ["gpt-4o-mini", "gpt-4o"]:
- logger.info(f"Réponse de {model}: {reply[:100]}...")
- if hasattr(response, 'usage') and response.usage:
- usage = {
- 'prompt_tokens': response.usage.prompt_tokens,
- 'completion_tokens': response.usage.completion_tokens
- }
- _, _, total_cost = calculate_cost(usage, model=model)
- # Log avec les tokens d'entrée et de sortie
- logger.info(f"Coût de l'utilisation de {model}: ${total_cost:.4f} / Input: {usage['prompt_tokens']} / Output: {usage['completion_tokens']}")
- else:
- logger.warning(f"Informations d'utilisation non disponibles pour {model}.")
-
- return reply
- except OpenAIError as e:
- logger.error(f"Erreur lors de l'appel à l'API OpenAI avec {model}: {e}")
- except Exception as e:
- logger.error(f"Erreur inattendue lors de l'appel à l'API OpenAI avec {model}: {e}")
-
- return None
- async def call_gpt4o_for_image_analysis(image_data, user_text=None, detail='high'):
- """Appelle GPT-4o pour analyser une image."""
- prompt = IMAGE_ANALYSIS_PROMPT
- if user_text:
- prompt += f" Voici ce que l'on te décrit : \"{user_text}\"."
-
- message_to_send = {
- "role": "user",
- "content": [
- {"type": "text", "text": prompt},
- {
- "type": "image_url",
- "image_url": {
- "url": f"data:image/jpeg;base64,{image_data}",
- "detail": detail
- }
- }
- ]
- }
-
- messages = [message_to_send]
- analysis = await call_openai_model(
- model="gpt-4o",
- messages=messages,
- max_tokens=4096,
- temperature=1.0
- )
-
- if analysis:
- logger.info(f"Analyse de l'image par GPT-4o : {analysis}")
- return analysis
- async def call_gpt4o_mini_with_analysis(analysis_text, user_name, user_question, has_text_flag):
- """Appelle GPT-4o Mini pour générer une réponse basée sur l'analyse de l'image."""
- system_messages = [
- {"role": "system", "content": PERSONALITY_PROMPT},
- {
- "role": "system",
- "content": f"L'analyse de l'image fournie est la suivante :\n{analysis_text}\n\n"
- }
- ]
- if has_text_flag:
- user_content = (
- f"{user_name} a posté un message contenant une image et a écrit avec : '{user_question}'. "
- "Réponds à l'utilisateur en te basant sur l'analyse, avec ta personnalité. "
- "Ne mentionne pas explicitement que l'analyse est pré-existante, fais comme si tu l'avais faite toi-même."
- )
- else:
- user_content = (
- f"{user_name} a partagé une image sans texte additionnel. "
- "Commente l'image en te basant sur l'analyse, avec ta personnalité. "
- "Ne mentionne pas que l'analyse a été fournie à l'avance, réagis comme si tu l'avais toi-même effectuée."
- )
- user_message = {"role": "user", "content": user_content}
- messages = system_messages + conversation_history + [user_message]
-
- reply = await call_openai_model(
- model="gpt-4o-mini",
- messages=messages,
- max_tokens=450,
- temperature=1.0
- )
-
- return reply
- async def call_openai_api(user_text, user_name, image_data=None, detail='high'):
- """Appelle l'API OpenAI pour générer une réponse basée sur le texte et/ou l'image."""
- text = f"{user_name} dit : {user_text}"
- if image_data:
- text += " (a posté une image.)"
- message_to_send = {
- "role": "user",
- "content": [
- {"type": "text", "text": text}
- ]
- }
- if image_data:
- message_to_send["content"].append({
- "type": "image_url",
- "image_url": {
- "url": f"data:image/jpeg;base64,{image_data}",
- "detail": detail
- }
- })
- messages = [
- {"role": "system", "content": PERSONALITY_PROMPT}
- ] + conversation_history + [message_to_send]
- reply = await call_openai_model(
- model="gpt-4o-mini",
- messages=messages,
- max_tokens=450,
- temperature=1.0
- )
-
- return reply
- # =====================================
- # Gestion du Contenu de l'Historique
- # =====================================
- async def remove_old_image_analyses(db_manager, new_analysis=False):
- """Supprime les anciennes analyses d'images de l'historique."""
- global conversation_history, last_analysis_index, messages_since_last_analysis
- if new_analysis:
- logger.debug("Nouvelle analyse détectée. Suppression des anciennes analyses.")
- conversation_history = [
- msg for msg in conversation_history
- if not (msg.get("role") == "system" and msg.get("content", "").startswith("__IMAGE_ANALYSIS__:"))
- ]
- last_analysis_index = len(conversation_history)
- messages_since_last_analysis = 0
- # Supprimer les analyses d'images de la base de données
- db_manager.delete_old_image_analyses()
- else:
- # Exemple de logique additionnelle si nécessaire
- pass
- async def add_to_conversation_history(db_manager, new_message):
- global conversation_history, last_analysis_index, messages_since_last_analysis
- # Exclure le PERSONALITY_PROMPT de l'historique
- if new_message.get("role") == "system" and new_message.get("content") == PERSONALITY_PROMPT:
- logger.debug("PERSONALITY_PROMPT système non ajouté à l'historique.")
- return
- # Gérer les analyses d'images
- if new_message.get("role") == "system" and new_message.get("content", "").startswith("__IMAGE_ANALYSIS__:"):
- await remove_old_image_analyses(db_manager, new_analysis=True)
- # Ajouter le message à l'historique en mémoire
- conversation_history.append(new_message)
- # Sauvegarder dans la base de données
- db_manager.save_message(new_message.get("role"), new_message.get("content"))
- logger.debug(f"Message ajouté à l'historique. Taille actuelle : {len(conversation_history)}")
- # Mettre à jour les indices pour les analyses d'images
- if new_message.get("role") == "system" and new_message.get("content", "").startswith("__IMAGE_ANALYSIS__:"):
- last_analysis_index = len(conversation_history) - 1
- messages_since_last_analysis = 0
- else:
- await remove_old_image_analyses(db_manager, new_analysis=False)
- # Limiter l'historique à 150 messages
- if len(conversation_history) > 150:
- excess = len(conversation_history) - 150
- conversation_history = conversation_history[excess:]
- # Supprimer les messages les plus anciens de la base de données
- db_manager.delete_old_messages(excess)
- # =====================================
- # Gestion des Événements Discord
- # =====================================
- class MyDiscordClient(discord.Client):
- def __init__(self, db_manager, **options):
- super().__init__(**options)
- self.db_manager = db_manager
- self.message_queue = asyncio.Queue()
- async def setup_hook(self):
- """Hook d'initialisation asynchrone pour configurer des tâches supplémentaires."""
- self.processing_task = asyncio.create_task(self.process_messages())
- async def close(self):
- if openai_client:
- await openai_client.close()
- self.db_manager.close_connection()
- self.processing_task.cancel()
- await super().close()
- async def on_ready(self):
- """Événement déclenché lorsque le bot est prêt."""
- logger.info(f'{BOT_NAME} connecté en tant que {self.user}')
- if not conversation_history:
- logger.info("Aucun historique trouvé. L'historique commence vide.")
- # Envoyer un message de version dans le canal Discord
- channel = self.get_channel(chatgpt_channel_id)
- if channel:
- try:
- embed = discord.Embed(
- title="Bot Démarré",
- description=f"🎉 {BOT_NAME} est en ligne ! Version {BOT_VERSION}",
- color=0x00ff00 # Vert
- )
- await channel.send(embed=embed)
- logger.info(f"Message de connexion envoyé dans le canal ID {chatgpt_channel_id}")
- except discord.Forbidden:
- logger.error(f"Permissions insuffisantes pour envoyer des messages dans le canal ID {chatgpt_channel_id}.")
- except discord.HTTPException as e:
- logger.error(f"Erreur lors de l'envoi du message de connexion : {e}")
- else:
- logger.error(f"Canal avec ID {chatgpt_channel_id} non trouvé.")
- async def on_message(self, message):
- """Événement déclenché lorsqu'un message est envoyé dans un canal suivi."""
- # Ignorer les messages provenant d'autres canaux ou du bot lui-même
- if message.channel.id != chatgpt_channel_id or message.author == self.user:
- return
- await self.message_queue.put(message)
- async def process_messages(self):
- """Tâche en arrière-plan pour traiter les messages séquentiellement."""
- while True:
- message = await self.message_queue.get()
- try:
- await self.handle_message(message)
- except Exception as e:
- logger.error(f"Erreur lors du traitement du message : {e}")
- try:
- await message.channel.send("Une erreur est survenue lors du traitement de votre message.")
- except Exception as send_error:
- logger.error(f"Erreur lors de l'envoi du message d'erreur : {send_error}")
- finally:
- self.message_queue.task_done()
- async def handle_message(self, message):
- """Fonction pour traiter un seul message."""
- global conversation_history, last_analysis_index, messages_since_last_analysis
- user_text = message.content.strip()
- # Commande de réinitialisation de l'historique
- if user_text.lower() == "!reset_history":
- if not message.author.guild_permissions.administrator:
- await message.channel.send("❌ Vous n'avez pas la permission d'utiliser cette commande.")
- return
- conversation_history = []
- self.db_manager.reset_history()
- await message.channel.send("✅ L'historique des conversations a été réinitialisé.")
- return
- # Traiter les pièces jointes
- image_data = None
- file_content = None
- attachment_filename = None
- allowed_extensions = ['.txt', '.py', '.html', '.css', '.js']
- if message.attachments:
- for attachment in message.attachments:
- if any(attachment.filename.lower().endswith(ext) for ext in allowed_extensions):
- file_content = await read_text_file(attachment)
- attachment_filename = attachment.filename
- break
- elif attachment.content_type and attachment.content_type.startswith('image/'):
- image_data = await encode_image_from_attachment(attachment, mode='high')
- break
- # Traitement des images
- if image_data:
- has_user_text = has_text(user_text)
- user_text_to_use = user_text if has_user_text else None
- temp_msg = await message.channel.send(f"*{BOT_NAME} observe l'image...*")
- try:
- # Analyser l'image avec GPT-4o
- analysis = await call_gpt4o_for_image_analysis(image_data, user_text=user_text_to_use)
- if analysis:
- # Ajouter l'analyse à l'historique
- analysis_message = {
- "role": "system",
- "content": f"__IMAGE_ANALYSIS__:{analysis}"
- }
- await add_to_conversation_history(self.db_manager, analysis_message)
- # Générer une réponse basée sur l'analyse
- reply = await call_gpt4o_mini_with_analysis(analysis, message.author.name, user_text, has_user_text)
- if reply:
- await temp_msg.delete()
- await message.channel.send(reply)
- # Construire et ajouter les messages à l'historique
- user_message_text = f"{user_text} (a posté une image.)" if has_user_text else (
- "Une image a été postée, mais elle n'est pas disponible pour analyse directe. Veuillez vous baser uniquement sur l'analyse fournie."
- )
- user_message = {
- "role": "user",
- "content": f"{message.author.name} dit : {user_message_text}"
- }
- assistant_message = {
- "role": "assistant",
- "content": reply
- }
- await add_to_conversation_history(self.db_manager, user_message)
- await add_to_conversation_history(self.db_manager, assistant_message)
- else:
- await temp_msg.delete()
- await message.channel.send("Désolé, je n'ai pas pu générer une réponse.")
- else:
- await temp_msg.delete()
- await message.channel.send("Désolé, je n'ai pas pu analyser l'image.")
- except Exception as e:
- await temp_msg.delete()
- await message.channel.send("Une erreur est survenue lors du traitement de l'image.")
- logger.error(f"Erreur lors du traitement de l'image: {e}")
- return # Ne pas continuer le traitement après une image
- # Ajouter le contenu du fichier au texte de l'utilisateur si un fichier est présent
- if file_content:
- user_text += f"\nContenu du fichier {attachment_filename}:\n{file_content}"
- # Vérifier si le texte n'est pas vide
- if not has_text(user_text):
- return # Ne pas appeler l'API si le texte est vide
- async with message.channel.typing():
- try:
- # Appeler l'API OpenAI pour le texte
- reply = await call_openai_api(user_text, message.author.name)
- if reply:
- await message.channel.send(reply)
- # Construire et ajouter les messages à l'historique
- user_message = {
- "role": "user",
- "content": f"{message.author.name} dit : {user_text}"
- }
- assistant_message = {
- "role": "assistant",
- "content": reply
- }
- await add_to_conversation_history(self.db_manager, user_message)
- await add_to_conversation_history(self.db_manager, assistant_message)
- else:
- await message.channel.send("Désolé, je n'ai pas pu générer une réponse.")
- except Exception as e:
- await message.channel.send("Une erreur est survenue lors de la génération de la réponse.")
- logger.error(f"Erreur lors du traitement du texte: {e}")
- # ============================
- # Démarrage du Bot Discord
- # ============================
- def main():
- db_manager = DatabaseManager()
- if not db_manager.connection:
- logger.error("Le bot ne peut pas démarrer sans connexion à la base de données.")
- return
- db_manager.load_conversation_history()
- client_discord = MyDiscordClient(db_manager=db_manager, intents=intents)
- try:
- client_discord.run(DISCORD_TOKEN)
- except Exception as e:
- logger.error(f"Erreur lors du démarrage du bot Discord: {e}")
- finally:
- db_manager.close_connection()
- if __name__ == "__main__":
- main()
|