Beitrag 1 von einem abonnierten Benutzer
QCH-L-C Messenger
Meine Story
Beitrag 2 von einem anderen abonnierten Benutzer
# backend_prai_final.py
import os
import json
import hashlib
import time
from google.auth import default
import google_generativeai as genai
from flask import Flask, request, jsonify
app = Flask(__name__)
# --- Konfiguration (wie zuvor) ---
PROJECT_ID = "imposing-eye-446911-f4"
MODEL_NAME = "gemini-pro"
QUANTUM_SALT = os.environ.get("QUANTUM_SALT", "default_quantum_salt_42")
# --- Initialisierung (wie zuvor) ---
credentials, project = default()
genai.configure(project=PROJECT_ID, credentials=credentials)
gemini_model = genai.GenerativeModel(MODEL_NAME)
# --- Datenstrukturen für Wortschatz (Beispiel) ---
allgemeiner_wortschatz = {
"de": {
"abc": ["a", "b", "c", "..."],
"hallo": ["Hallo!", "Guten Tag!", "Servus!"],
# ... (weitere Kategorien und Wörter) ...
},
"en": {
"abc": ["a", "b", "c", "..."],
"hello": ["Hello!", "Hi!", "Hey!"],
# ...
},
# ... (weitere Sprachen) ...
}
gelernt_conversations = [] # Liste zum Speichern von gelernten Gesprächsverläufen
feedback_daten = [] # Liste zum Speichern von Feedback
def generate_feedback_id():
return hashlib.sha256(str(time.time()).encode()).hexdigest()[:8]
def generate_quantum_id(user_message: str, timestamp: float) -> str:
# ... (wie zuvor) ...
def prai_filter(gemini_response: str, user_message: str):
filtered_response = gemini_response.replace("schlecht", "nicht gut").replace("gefährlich", "bedenklich")
# ... (weitere Filterlogik) ...
return filtered_response
def interact_with_gemini(user_message: str):
# ... (wie zuvor) ...
def generate_suggested_questions(user_message: str, gemini_response: str):
# **Komplexe Logik erforderlich:** Hier müsste eine KI oder regelbasiertes System analysieren,
# was der Nutzer gefragt hat und was die Antwort war, um plausible nächste Fragen zu generieren.
# Dies könnte Gemini selbst übernehmen oder eine separate Logik basierend auf den
# gelernten Conversationsfolgen und dem allgemeinen Wortschatz.
return ["Erzählen Sie mehr?", "Wie funktioniert das genau?", "Was sind die Vorteile?"]
@app.route("/", methods=["POST"])
def main_route():
data = request.get_json(silent=True)
if data and 'message' in data:
user_message = data['message']
gemini_response = interact_with_gemini(user_message)
prai_response = prai_filter(gemini_response, user_message)
feedback_id = generate_feedback_id()
suggested_questions = generate_suggested_questions(user_message, prai_response)
return jsonify({'reply': f"PRAI: {prai_response}", 'feedbackId': feedback_id, 'suggestedQuestions': suggested_questions})
return jsonify({'error': 'Nachricht fehlt im Anfragekörper'}), 400
@app.route("/feedback", methods=["POST"])
def feedback_route():
data = request.get_json(silent=True)
if data and 'feedbackId' in data and 'rating' in data:
feedback_daten.append(data)
print(f"Feedback erhalten: {data}")
# Hier müsste die Logik implementiert werden, um das Feedback für das Training zu nutzen
# (z.B. Speichern in einer Datenbank, Anpassen von Gewichten im Algorithmus).
return jsonify({'success': True})
return jsonify({'error': 'Fehler beim Feedback'}), 400
if __name__ == "__main__":
app.run(debug=True) # Nur für lokale Entwicklung! In Cloud Functions anders.
Multi-Sprachen Sandbox mit GitHub Logging & Hintergrundprozess
Wähle eine Sprache, gib deinen Code ein und führe ihn aus. Der rechte Bereich zeigt in Echtzeit den Hintergrundprozess (Überprüfung, Installation, etc.) an.
Ergebnis wird hier angezeigt...
Hintergrundprozess
QCH-L-C Messenger
Meine Story
Beitrag 1 von einem abonnierten Benutzer
Beitrag 2 von einem anderen abonnierten Benutzer
PRAI Chat Box & Code Sandbox
// Interner Code (nicht sichtbar)
console.log("Hello, world!");
📎
0 s
Exakt ausgerichteter Inhalt