Тут как бы нужно понимать, что делаешь и зачем. По последним данным гугл использует 16 000 факторов для построения ранжирования сайтов. И это не просто абстрактные слова, это слив их внутренних документов. Это как бы не 1200, что там у яндекса (тоже по сливам). И они даже признали, что врут, когда советы веб мастерам дают одни, а на деле чуть по другому ... Вообще гугл весьма инертная система - там нет такого, что за неделю другую накрутки - бац и в топ влетел. Кроме того, если все остальное не будет соответствовать, то поведенческие не перевесят. Надо быть сеошником со стажем, чтоб это все понимать. Проблем как минимум две - 1) подготовка пациента, по всем канонам сеошки 2) правильно подготовить тех самых пользователей ....
Нужен MySQL кодер
-
Есть база данных (MySQL) весом 10г и в ней находится почти 100 млн записей. Хотя бы немного сложные запросы для получения данных занимают слишком много времени.
Нужен человек который сможет, или оптимизироваться текущую БД (разрешается изменять структуру), или проконсультировать с выбором другой СУБД и структурой самой базы для нашего проекта. Результатом работы является, то, что запросы к БД (новой или этой) будут занимать существенно меньше времени.
Например, сейчас запрос "SELECT DISTINCT column_name FROM table_name" занимает 60+ сек, а нужно чтобы максимум 3 сек. -
Памяти на сервере сколько ? кладите всю базу в память по максимуму настраивайте правильно my.cnf в соответствии с ресурсами.
-
Если не надо сложные выборки делать, а просто брать строки, то рассмотрите Redis. Она в памяти работает, запросы идут мгновенно независимо от размера БД.
И зачем выбирать по DISTINCT, может проще изначально писать уникальные значения в базу?