Dans le cadre de la création d'une interface lié avec un modèle d'IA via API, je rencontre des difficulté pour la mise à jour de l'interface. Lorsque je lance la fonction jointe l'interface va ses mettre à jour uniquement lorsque le script aura reçus la réponse via l'API. Je cherche un moyen que l'interface se mettent à jour avant afin de notifier l'utilisateur que sa requête est en cours d'exécution. Si quelqu'un a une solution pour ce problème.
Voici la fonction jointe

def chatlaunch():
if newchat_button.winfo_viewable():
try:
img_label.place_forget()
Chatframe.place_forget()
img_logo.configure(size=(100,100))
img_label.configure(width=100,height=100)
img_label.place(relx=0.06,rely=0.06,anchor="center")
copy_button.place(relx=0.84,rely=0.015,anchor="center")
newchat_button.place(relx=0.75,rely=0.015,anchor="center")
Chatframe.place(relx=0.5,rely=0.9, anchor="center")
output_frame.place(relx=0.5,rely=0.42,anchor="center")

output_txtbox.insert("end","Vous : " + (Chat_input.get()) + "\n" + "\n")


# Calculer la condition avant de l'inclure dans la f-string
file_content = "" if importedfile.get("1.0", "end-1c") == "" else extracted_content

prompt_chat = f"""
Voici l'historique de notre intéraction : {output_txtbox.get("1.0", "end-1c")}
###
{Chat_input.get()}
###
{file_content}
"""
chat_response_tab1 = client.chat.complete(
model=model,
temperature=f"0.{int(select_temperature_slider.get())}",
messages=[
{"role": "system", "content": select_master_txtbox.get("1.0", "end-1c")},
{"role": "user", "content": prompt_chat},
]
)

reponse_content = chat_response_tab1.choices[0].message.content

output_txtbox.insert("end",reponse_content + "\n" + "\n")
Chat_input.delete(0, "end")
except:
output_txtbox.insert("end","Erreur lors du Traitement de votre requette" + "\n")
else:

try:
img_label.place_forget()
Chatframe.place_forget()
img_logo.configure(size=(100,100))
img_label.configure(width=100,height=100)
img_label.place(relx=0.06,rely=0.06,anchor="center")
copy_button.place(relx=0.84,rely=0.015,anchor="center")
newchat_button.place(relx=0.75,rely=0.015,anchor="center")
Chatframe.place(relx=0.5,rely=0.9, anchor="center")
output_frame.place(relx=0.5,rely=0.42,anchor="center")

output_txtbox.insert("end","Vous : " + (Chat_input.get()) + "\n" + "\n")

# Calculer la condition avant de l'inclure dans la f-string
file_content = "" if importedfile.get("1.0", "end-1c") == "" else extracted_content

prompt_chat = f"""
{Chat_input.get()}
###
{file_content}
"""

chat_response_tab1 = client.chat.complete(
model=model,
temperature=f"0.{int(select_temperature_slider.get())}",
messages=[
{"role": "system", "content": select_master_txtbox.get("1.0", "end-1c")},
{"role": "user", "content": prompt_chat},
]
)

reponse_content = chat_response_tab1.choices[0].message.content
historique = reponse_content

output_txtbox.insert("end",reponse_content + "\n" + "\n")
Chat_input.delete(0, "end")
except:
output_txtbox.insert("end","Erreur lors du Traitement de votre requette" + "\n")
print(importedfile.get("1.0", "end-1c"))