@Uwe Kuhl:
Das hängt von der Technologie ab:
Die JavaScript-basierten Tools arbeiten so, dass die Seite im ursprünglichen Zustand ausgeliefert wird und auch genau so von den Crawlern indiziert werden.
Erst wenn im Browser des Benutzers das Testing-JavaScript ausgeführt wird, und dieses entscheidet, dass eine alternative Version gezeigt werden soll, führt dieses dynamisch – d.h. im Browser des Benutzers – nachträgliche Änderungen am HTML durch. Diese bekommt der Crawler jedoch nicht zu sehen.
Bei Google Website Optimizer und generell immer dann, wenn die verschiedenen Varianten unter unterschiedlichen URLs liegen, muss man mit entsprechenden Canonical-Tags oder noindex dafür sorgen, dass nur eine der Versionen indiziert und die anderen ignoriert werden – sonst wird es als Duplicate Content gewertet und darüber hinaus wäre dann unklar, welche Version die Suchmaschine ausliefert.
Bei Lösungen, die den Datenstrom manipulieren, wie Sitespect, prüft das Testing-Tool, ob es sich um einen Crawler handelt (vermutlich aus einer Kombination von User-Agents, IP-Adresslisten usw.) und manipuliert den Datenstrom nur dann, wenn es der Meinung ist, dass es sich um einen menschlichen Benutzer handelt. Sitespect gibt an, dass die Wahrscheinlichkeit, hier falsch zu liegen, extrem gering ist, so dass man sich auch hier keine Sorgen um das Suchergebnis machen muss.