LSM Agents

Compliance · EU AI Act · Άρθρο 50

EU AI Act Άρθρο 50: Κάντε το chatbot και το voice agent σας συμβατά — πριν τις 2 Αυγούστου 2026.

Το Άρθρο 50 του EU AI Act επιβάλλεται από τις 2 Αυγούστου 2026. Κάθε σύστημα που αλληλεπιδρά με άνθρωπο — chatbot, voice agent, AI receptionist — πρέπει να δηλώνει τον εαυτό του ως AI. Τα deepfakes πρέπει να φέρουν machine-readable watermark. Πρόστιμα έως 15 εκατ. € ή 3% του παγκόσμιου ετήσιου τζίρου. Auditάρουμε, διορθώνουμε και παραδίδουμε σενάρια Article 50 disclosure και audit logs by default.

TL;DR

  • ·Επιβολή Article 50: 2 Αυγούστου 2026. Η προθεσμία είναι πραγματική.
  • ·Τρεις υποχρεώσεις: AI-system disclosure, deepfake watermarking, σήμανση AI-generated content. Καθεμία με διαφορετικό εύρος προστίμου.
  • ·Μέγιστο πρόστιμο: 15 εκατ. € ή 3% του παγκόσμιου ετήσιου τζίρου (όποιο μεγαλύτερο). Για ΜΜΕ ισχύουν αναλογικά πλαφόν — συνήθως ανά deployment, όχι company-wide.
  • ·Παράδοση: AI-inventory + gap report (€3.800) → fixed-price implementation (~€12.500) που καλύπτει disclosure UI, audit logs και provider/deployer documentation κατά Art. 53 + 26.

Ποιος πρέπει να συμμορφωθεί

Το Άρθρο 50 ισχύει για providers ΚΑΙ deployers AI συστημάτων που αλληλεπιδρούν με φυσικά πρόσωπα. "Provider" = χτίζει και διαθέτει το AI. "Deployer" = το χρησιμοποιεί εμπορικά. Αν λειτουργείτε chatbot στο δικό σας site, είστε deployer με πλήρη υποχρέωση Article 50 ανεξάρτητα από ποιος το έχτισε. Η εξαίρεση για συστήματα text-to-text spam filter δεν επεκτείνεται σε αλληλεπίδραση πελατών. Οι voice agents καλύπτονται ρητά. Synthesised voice clones (ElevenLabs, custom) ενεργοποιούν την υποχρέωση deepfake watermark κατά Art. 50(2).

Τι απαιτεί πραγματικά το Άρθρο 50

Τρεις ξεχωριστές υποχρεώσεις, καθεμία με δική της τεχνική απαίτηση. Οι περισσότεροι operators αποτυγχάνουν τουλάχιστον σε δύο.

  • Καμία διαρκής on-screen δήλωση ότι ο συνομιλητής είναι AI ("Είμαι αυτόματος βοηθός")
  • Η δήλωση φαίνεται μόνο στην αρχή της συνεδρίας, όχι πριν την πρώτη AI απάντηση
  • Η δήλωση δεν διαβάζεται από assistive tech (μόνο εικόνα, χωρίς aria-label)
  • Voice agent συστήνεται ως "Maria" χωρίς να δηλώνει ότι είναι AI
  • AI-generated περιεχόμενο (εικόνες, ήχος, κείμενο) δημοσιευμένο χωρίς C2PA metadata ή ορατή σήμανση
  • Deepfake περιεχόμενο (κλωνοποιημένη φωνή πραγματικού προσώπου) χωρίς machine-readable watermark
  • Καμία audit log της AI-system version, του system-prompt hash ή της κλάσης training data
  • Καμία τεκμηρίωση κατηγορίας κινδύνου (Annex III) ή του general-purpose μοντέλου
  • Κανένας human-oversight ή escalation path τεκμηριωμένος κατά Art. 14
  • Καμία ενημερωμένη DPIA για το AI σύστημα

Πώς εφαρμόζεται η επιβολή

Η BNetzA (Bundesnetzagentur) είναι η αρμόδια αρχή market surveillance για τη Γερμανία. Πρόστιμα κατά Art. 99: έως 15 εκατ. € ή 3% του παγκόσμιου ετήσιου τζίρου ειδικά για παραβιάσεις Article 50. Οι πρώτες υποθέσεις δεν θα είναι κατά πολυεθνικών — έχουν νομικά τμήματα. Οι πρώτες υποθέσεις θα είναι ΜΜΕ που τρέχουν off-the-shelf chatbots χωρίς disclosure layer. Τα 15 εκατ. € είναι ανώτατο όριο, όχι κατώτατο· οι μικρότεροι operators αντιμετωπίζουν αναλογικά πρόστιμα, αλλά η επιθεώρηση και η δημόσια Abmahnung είναι από μόνες τους ζημιογόνες.

Πώς τρέχουμε ένα AI Act project

  1. 01

    AI inventory (5 ημέρες): καταλογογράφηση κάθε AI συστήματος στο stack — chatbots, voice agents, classifiers, embedding services, content generators. Output: γραπτή inventory σε αντιστοιχία με Art. 50 / 53 / 26.

  2. 02

    Gap analysis: αξιολόγηση κατηγορίας κινδύνου ανά σύστημα (Annex III), provider vs deployer mapping, missing disclosures, missing watermarks, missing audit logs.

  3. 03

    Σχέδιο remediation: σταθερή τιμή με σταδιακό rollout. Critical disclosures πρώτα (εβδομάδα 1), audit logs και DPIA δεύτερα (εβδομάδα 2-3).

  4. 04

    Build (10–14 ημέρες): παραδίδουμε disclosure-component library (React + plain-DOM), audit-log middleware και deployer documentation pack.

  5. 05

    Verification: third-party review της υλοποίησης. Output: signed-off Article 50 readiness report.

  6. 06

    Monitoring: Operator-tier retainer με quarterly reviews κατά Commission guidance και Codes of Practice updates (το EU AI Office δημοσιεύει συνεχώς).

EU AI Act Article 50 — συχνές ερωτήσεις

Ισχύει το Article 50 για το chatbot μου αν το αγόρασα από vendor;+

Ναι. Είστε deployer, ακόμη κι αν ο vendor είναι provider. Το Article 50 ισχύει για deployers — πλήρης υποχρέωση disclosure ανεξάρτητα από ποιος έχτισε το σύστημα. Ο vendor είναι υπεύθυνος για την τεχνική δυνατότητα· εσείς είστε υπεύθυνοι ώστε το disclosure να είναι ζωντανό, ορατό και προσβάσιμο στο site σας.

Τι γίνεται με τα AI Overviews από Google ή Bing;+

Όχι. Ο provider (Google / Microsoft) φέρει την υποχρέωση disclosure για AI-generated απαντήσεις εντός των δικών τους search products. Δεν είστε deployer αυτών.

Υπόκεινται οι voice agents σε deepfake watermarking;+

Μόνο αν η συνθετική φωνή κλωνοποιείται από πραγματικό, αναγνωρίσιμο πρόσωπο. Γενικές synthesized φωνές (ElevenLabs default voices, OpenAI standard voices) είναι AI-generated content κατά Art. 50(2) και απαιτούν σήμανση, αλλά όχι watermark. Κλωνοποιημένες φωνές πραγματικών ατόμων ενεργοποιούν το πλήρες deepfake regime.

Πότε ξεκινά η επιβολή Article 50;+

2 Αυγούστου 2026. Ο νόμος τέθηκε σε ισχύ 1 Αυγούστου 2024 με 2ετή μετάβαση για τις περισσότερες γενικές AI υποχρεώσεις, συμπεριλαμβανομένου του Article 50.

Υπάρχει small-business εξαίρεση;+

Δεν υπάρχει εξαίρεση ΜΜΕ από το Article 50. Οι Annex III high-risk classifications έχουν deployer-registration ελάφρυνση για κάποιες ΜΜΕ, αλλά οι transparency υποχρεώσεις ισχύουν παγκοσμίως. Το AI Office αναμένεται να δημοσιεύσει αναλογικές οδηγίες επιβολής το καλοκαίρι 2026.

Πόσο κοστίζει η AI Act compliance;+

Inventory + gap analysis: €3.800 σταθερή τιμή. Implementation τυπικά €8.500–€18.000 ανάλογα με αριθμό AI συστημάτων και πολυπλοκότητα. Διαμορφώστε ακριβή τιμή στον calculator.