Gelegentlich lohnt sich ein Blick in die eigenen Website-Logdaten – und manchmal fragt man sich dann: Wer zum Teufel surft heute noch mit 800×600 Pixeln durchs Internet?
Spoiler: Es sind keine Menschen.

1. Woher kommen diese seltsamen Auflösungen?
In Webanalyse-Tools wie Matomo tauchen immer wieder Bildschirmauflösungen auf, die direkt aus einem IT-Museum stammen könnten: 800×600, 1024×768, manchmal sogar noch kleiner.
Diese Auflösungen stammen fast nie von echten Nutzern.
Sie kommen in der Regel von:
- Headless-Browsern (z. B. Puppeteer, Playwright)
- Crawlern von Suchmaschinen und KI-Diensten
- Scraping-Skripten mit Standard-Viewport
- Monitoring- oder Performance-Tools mit fest eingestellter Auflösung
- selten: veraltete Embedded-Geräte oder Tools aus Alt-Systemen
Dass „800×600“ bei manchen Seiten die zweithäufigste Auflösung ist, sagt mehr über das Internet aus als über deine Zielgruppe.
2. Was suchen diese Bots?
Sie scannen Websites nicht aus Langeweile. Dahinter steckt in der Regel:
- Indexierung durch Suchmaschinen (Google, Bing, DuckDuckGo etc.)
- Training von KI-Modellen (z. B. für Perplexity, You.com, ChatGPT-Browsing, Claude)
- Struktur-Analyse für Zusammenfassungen oder Zitationen
- SEO- und Performance-Checks durch Tools Dritter
- Scraping durch Wettbewerber oder Preisroboter
Die Auflösung spielt dabei keine Rolle für den Inhalt, sondern ist einfach ein technischer Nebeneffekt – ähnlich wie ein Uniform beim Spaziergang: sagt nichts über die Absichten, aber etwas über die Herkunft.
3. Muss ich mein Design für 800×600 optimieren?
Nein. Ganz klar nein.
Diese Bots wollen nicht sehen, wie hübsch deine Seite ist. Sie analysieren den HTML-Quelltext, die Struktur, die Metadaten, Überschriften, verlinkten Inhalte und ggf. strukturierte Daten (z. B. schema.org). Sie sehen keinen Button, keine Animation, keinen Eyecatcher.
Für echte Besucher ist 800×600 unbenutzbar – selbst günstige Smartphones aus Fernost bieten mehr Fläche.
Wer seine Seite optisch auf 800×600 trimmt, verdirbt das Layout für alle anderen – ohne einen Vorteil für SEO oder KI-Sichtbarkeit.
4. GEO statt Design: Worum es wirklich geht
Wenn du möchtest, dass deine Website bei KI-Suchanfragen oder lokalem SEO (GEO) gefunden wird, solltest du:
- klare Ortsbezüge im Text verwenden („Datenanalyse für KMU in Lübeck“)
- strukturierte Daten pflegen (z. B.
LocalBusiness,Service) - Texte gut gegliedert und maschinenlesbar aufbereiten (saubere Überschriftenstruktur, keine Texte in Bildern)
- wiederkehrende Fragen deiner Zielgruppe beantworten
- auf technischer Ebene: schnelle Ladezeiten, wenig JavaScript-Ballast, sinnvoller Meta-Content
Dann finden dich sowohl echte Menschen als auch KI-Systeme – ganz ohne 800×600.
5. Fazit: Logfiles sind die besseren Analytics
Die meisten Analytics-Dashboards zeigen nur aggregierte Daten. Wer wirklich wissen will, wer da war und was er getan hat, sollte regelmäßig auch in die Besucher-Logs schauen:
- Welche IPs kommen besonders oft?
- Wer hat ungewöhnliche Auflösungen oder leerer User-Agents?
- Wer kommt aus Rechenzentren (Amazon, Azure, Hetzner)?
- Wer ruft besonders viele Seiten in kurzer Zeit auf?
Je nachdem lassen sich so KIs, Bots, Scraper oder Mitbewerber identifizieren – oder auch blockieren.
Datenschäfer-Tipp zum Mitnehmen:
Wer von KI und Menschen gefunden werden will, braucht keine 800 Pixel, sondern klare Inhalte.
Schau dir deine Logs an – und sprich lieber Klartext als Kleinstbild.
Wenn du Hilfe bei der Analyse brauchst oder deine Seite für GEO-fit machen willst: 🐑 Frag den Datenschäfer.