Published by: 0

Сегодня речь пойдет о том, как можно сохранить данные инструмента веб-аналитики Google Analytics на локальном сервере. Все отчеты аналитикса хранятся на сервере Google ровно 25 месяцев, после чего бесследно удаляются. Почему именно 25 месяцев? Потому что с одной стороны у пользователей есть возможность сравнить годовые отчеты, а с другой стороны при таком сроке не так быстро заполняется пространство сервера. Понятно, что большинству пользователей достаточно этого срока – мало кто сравнивает даже показатели за год.

На днях одна из работающих со мной компаний изъявила желание полностью сохранять данные статистики о посещения сайта. Напомню, что экспорт данных из Google Analytics в какую-либо другую систему веб-аналитики или в другой формат невозможен (не путать с экспортом отчетов в pdf и другие форматы, это лишь снимок экрана а не настоящие данные, их нельзя обработать с помощью программы). Но есть одна возможность – можно в основном коде добавить строчку, которая будет копировать все полученные данные в логах (журнальных файлах) сервера. Вот пример того, как реализуется данная возможность:

[sourcecode language=’bash’]
[/sourcecode]

После того, как вы добавили такой строчку к коду, ждем сутки и проверяем журнальные файлы на наличие элементов  _utm.gif. Нет смысла приводить здесь вид журнальных файлов с информацией Google Analytics, поскольку для разных серверов их вид может сильно отличаться (даже для разной конфигурации Apache будет разный вид данных). Главное, чтобы сервер по умолчанию вел журнал в простом текстовом формате .txt, иначе вы не сможете так просто сохранять данные.

В итоге мы получаем кучу информации в файлах журнала о посещениях. Что делать с этим дальше? И тут мы ничего не сможем сделать без платного пакета программ Urchin (для справки: компанию Urchin  купила корпорация Google в 2005 году, и инструмент Google Analytics стал логическим продолжением и усовершенствованием продукта Urchin). Urchin может обрабатывать данные повторно, в том числе и в таком виде, а в google analytics вообще нет функции повторной обработки данных. Только все дело в том, что Urchin стоит порядка 5000$, и наши компании пока не готовы выкладывать такие деньги на программное обеспечение (но это только пока). Конечно, с помощью Urchin можно проанализировать информацию любой давности и как угодно (например, ставя фильтры, сегментирую данные и так далее) но весь вопрос в том, нужно ли это?

С моей точки зрения, положительным применения такого метода сохранения данных является только то, что можно проверить установку отслеживания файлов. Например, если мы видим, что в логах есть информация о скачивании файла, а в отчетах аналитикса этого нет, то значит с реализацией инструмента у нас есть проблемы.

Сразу хочет предупредить, что если вы начнете сохранять данные на локальном сервере, то очень быстро иссякнет дисковое пространство сервера, поэтому если его у вас не так его много или если не обходится выделенный сервер дешево, то лучше с такие функции не применять.