Точнее не так.
Я себе вижу ее так:
Прога грабит страничку профиля, основную страничку, страничку пункта сбора(достаточно ли этих страниц?).
Я бы предпочел тот режим, что я описал выше.
Смотрите. Если прога грабит те страницы, которые говорит ей скрипт, и посылает на обработку скрипту моему на сервере, то получается очень гибкое решение. Сервис сам будет решать какие странички нужно сграбить, а отдавая raw формат - клиента не придется менять при смене дизайна травиана например или формата страничек (что иногда бывает).
Отсылает их серверу (в каком виде?, как отсылает?)
post запрос вида multipart/form-data, в переменной content - передает контенты сграбленных страниц, в переменной url передает урлы оных, в переменной code передает код доступа к сервису.
все передает в неизмененном виде, т.е. в каком скачалось с сервера травиана, в таком и передает.
переменные content/url являются массивами с цифровыми индексами, соответствующими естественно
content[0] - контент страницы по урлу url[0]
В каком виде получает ответ от сервера что нужно парсить? В какой формат?
В идеале в какбы xml, по следующему принципу
<url>http://адрес1</url>
<url>http://адрес2</url>
<url>http://адрес3</url>
<message>сообщение для пользователя</message>
Потом клиент должен спарсить все урлы под логином паролем юзера (
клиент должен быть достаточно умным, что бы залогиниваться заново, если вывалится в ходе процесса или получит ошибку и снова получать урл до победы), и послать их на сервер.
Дополнительно: прога должна уметь запускаться сколько угодно раз. при каждом запуске выбирается профиль. профили задаются заранее, содержат в себе код доступа к сервису, логин и пароль к травиану. прога имеет окно для сообщения для пользователя, которое отдается сервисом.