Open gnuheidix opened 12 years ago
Auf meiner Entwicklermaschine konnte ich dieses Verhalten nicht reproduzieren. Die Seite wird komplett gecacht und ausgeliefert.
Habe es auch auf meiner lokalen Installation getestet und kann den Fehler ebenfalls nicht reproduzieren. Es scheint also wirklich ein Problem auf dem LV-Server zu sein.
Der Bug scheint nicht mehr im Produktionssystem aufzutreten.
auch gut :-)
Korrektur: Der Bug tritt noch auf. Der Cold-Cache-Ladevorgang vom Wiki verläuft so, dass der komplette Inhalt ausgeliefert wird. Sobald der Inhalt gecacht ist, wird er nur noch abgeschnitten ausgeliefert.
Das Problem kommt vom MySQL-Datentyp text. Dieser fasst nur bis zu 64KB. Ist die Seite größer, wird der Rest abgeschnitten. Das Ausführen folgender DB-Abfrage ändert den Datentyp und die Geschichte funktioniert.
alter table wiki_pages modify column content mediumtext;
Aktuell habe ich keine Ahnung, wie ich das dem Schema app/Config/Schema/wiki_pages.php klar machen soll.
Das Problem ist bekannt. https://cakephp.lighthouseapp.com/projects/42648/tickets/2311-seoquark
Ich sehe hier zwei Möglichkeiten.
@KnairdA Was meinst Du, welchen Weg wir nehmen sollen?
Ich persönlich finde es krass, dass wir die ersten sind, die versuchen, mehr als 64KB in die DB zu schreiben und dabei das Framework von vorn bis hinten verwenden wollen.
Es scheint so, dass bei langen Seiten irgendwann Inhalte abgeschnitten werden.
http://api.piratenpartei-bw.de/wiki/getpagehtml/BW:Stuttgart/Mitgliederversammlung_02/Antr%C3%A4ge