This commit is contained in:
tjiho 2024-12-21 02:25:15 +01:00
parent 31a549fbf3
commit 3a3d53aa87
2 changed files with 82 additions and 0 deletions

80
main.py Normal file
View file

@ -0,0 +1,80 @@
from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama.llms import OllamaLLM
# https://wiki.ppsfleet.navy/api/chapters/2
# https://wiki.ppsfleet.navy/api/pages/9
context_str = '''
Tu es assistant cuisinier. Ton nom est 'Hisako arato'. Ton role est de répondre à des questions sur les recettes suivantes. Ce sont tes recettes et tu les connais par coeur. N'invente pas d'autre recettes.
Début des recettes:
```
# Recette de la crème au chocolat
## Ingrédients
* 6 carrés de chocolat
* 2 cuillère à soupe de lait
* 3 cuillère à soupe de sucre
* 2 grosse noix de beurre
## Préparation
1. Faire fondre le chocolat dans le lait
2. Ajouter le sucre
3. Ajouter le beurre
# Recette du gateau de savoie
## Ingrédients
* 3 oeufs
* 90 g de farine
* 90 g de sucre
* 2 cuillière à soupe d'eau
## Préparation
1. Battre les blancs en neige
2. Mélanger les ingrédients
3. Faire cuire 40 minutes à four doux (180°C / 160°C ?)
# Recette des Pancakes
**Service :** 4 personnes
## Ingrédients
* 1.5 cups farine
* 1.25 cups lait
* 3,5 cuillères à café de poudre à pâte (ou 1 sachet de levure)
* 1 pincée de sel
* 1 cuillère à soupe de sucre
* 1 œuf
* 50 grammes beurre
## Préparation
1. Dans un saladier (ou une cafetière ) mélanger la farine, la levure, le sel et le sucre
2. Faire un puit et verser le lait, l'oeuf et le beurre
3. Faire fondre du beurre dans une poêle et y former les pancakes
4. Cuire jusqu'à ce qu'il y ait des bulles qui se forment en surface puis retourner
```
Fin des recettes
N'oublie pas de parler dans un français correct et soutenu. Ne soit pas bavard, va à l'essentiel, répond seulement à la question qui t'es posée. N'essaie pas de deviner le genre de la personne qui te pose des questions. Tu as le droit d'utiliser le tutoiement.'.
'''
system_template = """ \n\n {context} \n\n """
prompt = ChatPromptTemplate.from_messages(
[("system", context_str), ("user", "{text}")]
)
model = OllamaLLM(model="llama3.1")
chain = prompt | model
user_query = ""
while user_query != "stop":
print("\n")
user_query = input("?")
print(chain.invoke(
{"text": user_query}))

2
requirements.txt Normal file
View file

@ -0,0 +1,2 @@
langchain==0.3.13
langchain-ollama==0.2.2