Google Search Central Live Toronto 2026 — Analyse der wichtigsten Erkenntnisse für Websitebetreiber

Dein SEO-Dienstleister hat es dir nicht gesagt: Was Google gerade an seinen eigenen Beratern vorbei in Toronto gesagt hat.

Vor ein paar Wochen zeigte mir ein Kunde stolz seine Website. 490 Seiten, alle hübsch formatiert, alle mit KI generiert, alle nach aktuellen SEO-Ratschlägen geschrieben. Er zahlt dafür jeden Monat. Wir haben gemeinsam seine Matomo-Statistik geöffnet. 90 Prozent der Seiten hatten in den letzten drei Monaten null Aufrufe. Null. Nicht wenige. Keine.

Das war kein Einzelfall. Das ist der neue Normalzustand von KI-gestütztem SEO-Content im Mittelstand — und Google hat am 21. April 2026 in Toronto offiziell erklärt, warum.

Was war am 21. April 2026 in Toronto?

Google Search Central Live ist die offizielle Veranstaltungsreihe, bei der Google direkt mit Entwicklern und Websitebetreibern spricht. Am 21. April fand die erste Ausgabe in Kanada statt, mit Danny Sullivan (Public Liaison for Search), Martin Splitt (Search Relations), Ryan Levering (Structured Data), Daniel Waisberg (Search Console) und Annanya Raghavan (Google Trends).

SEO-Stratege Jean-Christophe Chouinard hat sämtliche Folien fotografiert und dokumentiert. Seine Zusammenfassung ist derzeit die vollständigste öffentlich verfügbare Quelle zu den Aussagen der Veranstaltung. Ich habe mich durch seine Dokumentation gearbeitet und übersetze hier, was davon für einen KMU-Betreiber in Ostholstein praktisch relevant ist.

Die Kernbotschaft lässt sich in einem Satz zusammenfassen: Die SEO-Taktiken, die seit zwei Jahren als „GEO“ (Generative Engine Optimization) verkauft werden, bringen nichts. Und die, die auf KI-Content-Skalierung setzen, schaden aktiv.

Warum ist das wichtig für dein Unternehmen?

Weil du vermutlich dafür bezahlst. Jeder, der in den letzten zwölf Monaten einen SEO-Vertrag geschlossen oder einen Webdesigner beauftragt hat, hat mit hoher Wahrscheinlichkeit mindestens eine der jetzt offiziell als wirkungslos bestätigten Taktiken mit im Paket. Oft sind es mehrere.

Das ist kein theoretisches Problem. Es ist echtes Geld, das jeden Monat verbrannt wird, für eine Wirkung, die laut Google selbst nicht existiert.

Definition: GEO (Generative Engine Optimization) Sammelbegriff für Maßnahmen, die eine Website für KI-Antwortsysteme wie ChatGPT, Google AI Overview und Perplexity optimieren sollen. Viele aktuelle GEO-Taktiken sind nicht empirisch belegt und werden von Google selbst als wirkungslos bezeichnet.

Was galt früher, was gilt jetzt?

Die folgenden Aussagen stammen direkt aus den in Toronto gezeigten Folien. Ich habe sie für den KMU-Kontext übersetzt.

Was galt früher (oder wird noch immer verkauft)Was jetzt gilt (Google-Aussagen April 2026)
Mit KI viele Blogposts pro Monat produzieren — Hauptsache VolumenGoogle erkennt und straft skalierten Content ab („Scaled Content Abuse“). Nicht die KI ist das Problem, sondern die Menge ohne Substanz.
Ein llms.txt-File anlegen, damit LLMs die Seite besser verstehenBringt laut Google nichts für SEO. Keine Wirkung, keine Sichtbarkeit, keine Rankings.
Die Website nach Markdown konvertieren, damit KI-Systeme sie leichter lesen könnenBringt laut Google ebenfalls nichts. Reine Beschäftigungstherapie.
„Crawled – currently not indexed“ in der Search Console ist ein technisches ProblemIst meistens ein Qualitätsurteil. Google hat die Seite gesehen und aktiv entschieden, sie nicht in den Index aufzunehmen.
Den Google-Extended-Bot blockieren, damit eigene Inhalte nicht in AI Overviews landenBringt nichts. Google nutzt die bereits im Index vorhandenen Daten für AI-Antworten weiter. Der Blocker kostet nur die Zitier-Verlinkung.
E-E-A-T (Experience, Expertise, Authority, Trust) als nettes NebenthemaIst der zentrale Qualitätsmaßstab. Ohne erkennbaren Autor, ohne nachweisbare Erfahrung, ohne echte Fälle gibt es keine Indexierung.
Keywords in möglichst hoher Dichte einbauenFunktioniert seit Jahren nicht, wird aber in vielen Angeboten noch immer verkauft. Google und LLMs arbeiten semantisch.
SEO misst sich am RankingRanking ist Nebenprodukt. Das eigentliche Ziel ist die namentliche Nennung der Quelle in AI Overview, ChatGPT und Perplexity.

Was bedeutet „Scaled Content Abuse“ konkret?

Das ist der Begriff, den Google verwendet, wenn eine Website in kurzer Zeit viele inhaltlich ähnliche Seiten veröffentlicht, die keinen eigenen Mehrwert liefern. Die Seiten können einzeln sprachlich sauber und sogar hilfreich wirken. Google erkennt trotzdem das Muster.

Zurück zum Beispiel mit den 490 Seiten. Was der SEO-Dienstleister meines Kunden gebaut hatte, war textlich einwandfrei. Grammatik stimmte, Struktur war ordentlich, keine Peinlichkeiten. Nur: Jede einzelne Seite konnte ChatGPT in fünf Sekunden selbst generieren. Es gab keinen einzigen Fall, keine eigene Zahl, keine Erfahrung, die nur dieser Betrieb haben konnte. Das ist genau das Muster, das Google jetzt aktiv gegen die Indexierung filtert.

Seiten, die nichts enthalten, was nur dieser eine Betrieb wissen kann, bekommen keine Sichtbarkeit mehr.

Was zählt jetzt wirklich?

Google hat nicht nur gesagt, was nicht wirkt. Die Veranstaltung hat auch bestätigt, was tatsächlich zählt — und das ist erstaunlich klassisch.

Eigene Fälle, die niemand sonst hat. Ein Handwerker, der beschreibt, warum er bei einem konkreten Hausumbau in Grömitz auf die naheliegende Lösung verzichtet hat und stattdessen eine andere Empfehlung gegeben hat, schreibt Non-Commodity-Content. Eine KI kann das nicht erfinden — weil sie den Hausumbau nie gesehen hat.

Nachvollziehbare Autorenschaft. Es reicht nicht, dass eine Seite existiert. Es muss erkennbar sein, wer sie geschrieben hat, welche Berufserfahrung dahintersteht, wo die Person zu erreichen ist. Das ist die E-E-A-T-Logik, die Google seit 2022 immer strenger durchsetzt.

Strukturierte Daten mit echten Entitäten. Schema.org-Markup für Artikel, Personen, Organisationen, Produkte. Aber nicht als Keyword-Füller, sondern als maschinenlesbare Verbindung zwischen real existierenden Dingen.

Inhaltliche Tiefe statt Breite. Zehn gute Artikel mit echter Substanz schlagen 490 KI-Artikel ohne Substanz jedes Mal. Das ist keine Meinung mehr, das ist Google-Politik.

Eine Randnotiz zur eigenen Website

Ich bin hier kein neutraler Beobachter. Ich betreibe sesoft.de seit Jahren mit wechselndem Erfolg. Meine meistbesuchte Seite laut Matomo ist seit Monaten das Impressum. Das ist keine Ironie, das ist ein Fakt — und er illustriert genau das Problem, über das hier geschrieben wird: Wer mich auf sesoft.de sucht, sucht den Menschen dahinter, nicht meinen generischen SEO-Text. Das Impressum liefert Name, Adresse, Erreichbarkeit. Genau das, was AI Overview und ChatGPT als E-E-A-T-Signal verwerten können.

Die Konsequenz, die ich aus dieser Einsicht ziehe: Ich baue sesoft.de seit Monaten konsequent auf Autor-Identität, echte Projektbeschreibungen und Substanz um — und schrumpfe bewusst die Anzahl veröffentlichter Seiten von ursprünglich fast tausend auf deutlich unter dreihundert. Die Toronto-Folien bestätigen diesen Weg jetzt offiziell.

Woran erkennst du, dass dein Webdesigner oder SEO-Dienstleister nicht mehr aktuell ist?

Diese Checkliste ist keine Beschimpfung deines Dienstleisters. Viele sind fachlich gut, aber ihr Handwerkszeug stammt aus einer Zeit, in der die Regeln anders waren. Die Frage ist, ob sie die neuen Regeln kennen und danach arbeiten — oder noch immer nach den alten abrechnen.

Warnsignale im monatlichen Report:

  • Es werden Keyword-Rankings als Haupterfolgsmaßstab genannt, ohne Zahlen zu tatsächlichen Anfragen oder AI-Zitierungen.
  • Die Zahl der neu veröffentlichten Seiten oder Blogposts steht prominent — als wäre Menge per se ein Wert.
  • Begriffe wie „Content Cluster“, „Silo-Struktur“ oder „Keyword-Density“ tauchen auf, aber nie Begriffe wie „zitatfähig“, „Primärquelle“ oder „E-E-A-T“.
  • Es werden Änderungen an Meta-Descriptions und Title-Tags abgerechnet, aber nie Arbeit an Substanzabschnitten oder Autorenseiten.

Warnsignale im Angebot für Neukunden:

  • Pakete mit fester monatlicher Anzahl von Blogposts oder Unterseiten (typisch: „wir liefern 8 Blogposts pro Monat“).
  • Versprechen, dass die Seite in AI Overview oder ChatGPT auftauchen wird, ohne Nennung einer konkreten Methode.
  • Das Wort „llms.txt“ taucht als separater Leistungspunkt auf.
  • Umbau der Website auf Markdown wird als SEO-Maßnahme verkauft.
  • „Wir schreiben für Sie KI-Texte, die bei Google ranken“ — das ist im Jahr 2026 ein Widerspruch in sich.

Warnsignale im Verhalten:

  • Bei der Frage „Wer ist bei euch eigentlich als Autor der Blogposts hinterlegt?“ wird ausgewichen oder auf Ghostwriter verwiesen.
  • Die eigene Website des Dienstleisters hat selbst keine Autor-Biografien oder nur Stockfotos statt echter Teammitglieder.
  • Auf die Frage nach konkreten Kundenfällen aus dem Mittelstand kommen generische Formulierungen statt echter Referenzen.
  • Der Dienstleister verweigert oder drückt sich um direkten Zugang zur Search Console und zu Matomo — „wir machen das intern, Sie bekommen den Report“.

Wenn drei oder mehr dieser Signale zutreffen, zahlt dein Betrieb vermutlich für eine Leistung, deren Wirkung Google selbst offiziell infrage stellt.

Was könnte ich als Datenschäfer konkret helfen?

Drei typische Arbeitspakete, die sich aus der Toronto-Linie ergeben:

Website-Inventur nach Substanz-Kriterien. Durchgehen aller bestehenden Seiten mit einer einfachen Frage: Enthält diese Seite etwas, das nur mein Betrieb wissen kann? Seiten ohne solche Substanz bekommen einen Projektstatus: überarbeiten, zusammenlegen oder auf noindex setzen. Der Matomo-Check hilft, Null-Aufruf-Seiten zu identifizieren. Das ist keine SEO-Kosmetik, das ist Frühjahrsputz.

Autoren-Infrastruktur aufbauen. Prüfen, ob die Website eine saubere Autorenseite hat, ob jeder Blogpost einem erkennbaren Autor zugeordnet ist, ob JSON-LD Person-Schema eingebaut ist und ob Google und LLMs die Autorenschaft maschinell verstehen können. Das ist ein einmaliges Projekt mit dauerhafter Wirkung auf die KI-Zitierfähigkeit.

Content-Auspackung aus echter Praxis. Mit dem Geschäftsführer oder den Fachleuten im Betrieb strukturiert die eigenen Projekte, Fälle und Besonderheiten herausarbeiten. Nicht „Was wollen wir sagen?“, sondern „Was haben wir erlebt, das kein anderer erlebt hat?“. Das Ergebnis sind fünf bis zehn echte Non-Commodity-Artikel — mehr brauchst du nicht, und mehr solltest du auch nicht haben.

Gemeinsam ist allen drei Paketen: Sie ersetzen Masse durch Substanz. Das ist die einzige Strategie, die Google in Toronto positiv hervorgehoben hat.

Was jetzt?

Die ehrliche Einschränkung: Nichts davon funktioniert über Nacht. Ein Umbau der Website nach den Toronto-Prinzipien ist ein Projekt von mehreren Wochen, keine Abendarbeit. Und selbst wenn alles richtig gemacht wird, sehen die Ergebnisse erst in drei bis sechs Monaten in der Search Console und in Matomo. Google indexiert langsam, und LLMs brauchen Zeit, bis sie neue Quellen in ihren Antworten berücksichtigen.

Aber die Richtung ist klar. Wer weiter auf Volumen setzt, wird von Google aktiv aus dem Index gehalten. Wer auf Substanz setzt, wird zunehmend als Quelle für KI-Antworten genutzt — und das ist der neue Premiumplatz.

Übersetzung für Nicht-Techniker

Kurz zusammengefasst: Eine Website ist heute nicht mehr eine Sammlung von Seiten, die möglichst oft aufgerufen werden sollen. Sie ist eine Quelle, aus der Google und ChatGPT zitieren — oder eben nicht. Zitiert wird nur, wer eigene Erfahrung einbringt und diese Erfahrung einer erkennbaren Person zuordnet. Alles andere ist austauschbar und wird aussortiert.

Wer zurzeit einen SEO-Dienstleister bezahlt, sollte einmal die Rechnungen der letzten sechs Monate nehmen, daneben den Matomo-Report legen und sich fragen: Hat das, was ich bezahlt habe, in der Statistik Spuren hinterlassen? Wenn die Antwort unklar ist, ist sie in den meisten Fällen nein.

Eine Bitte nicht, sondern eine Einladung

Wer wissen möchte, wie die eigene Website durch den Toronto-Filter fällt, erreicht mich über das Kontaktformular auf sesoft.de. Ich schaue mir die Seite gemeinsam mit dem Geschäftsführer an, wir gehen Matomo und Search Console konkret durch, und ich sage in einem halbstündigen Gespräch, ob der aktuelle SEO-Aufwand sein Geld wert ist oder nicht. Keine Verkaufsschlacht, kein Vertragsabschluss am Telefon — einfach eine nüchterne Einschätzung von jemandem, der Datenstrukturen seit 25 Jahren aus der Nähe kennt.

Quellen und weiterführende Links

Sönke Schäfer ist selbstständiger IT-Berater und Datenarchitekt in Ostholstein. Seit über 25 Jahren baut er Datenstrukturen für kleine und mittelständische Unternehmen im norddeutschen Mittelstand — Schwerpunkte: Datenarchitektur, Microsoft Access, SQL Server, WordPress. In den letzten Jahren mit wachsendem Fokus auf die Frage, wie KMU-Websites im Zeitalter generativer KI-Antwortsysteme überhaupt noch sichtbar bleiben.

Mehr zum Autor: Sönke Schäfer

Schreibe einen Kommentar

Nach oben scrollen