- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Мне одному кажется, что на этом поиск можно закрывать?
это давно уже побочный продукт, цели изменились у ПС давно. Отсутствие логики это показывает.
Алексей, я попробую объяснить ситуацию с новым алго и старыми базами максимально проще, даже пусть и с логическими ошибками, в противном случае народ может не понять.
Была "ручная" выборка и выдача, которая формировалась по N кол-ву данных, в том числе и мета и титлы и объем контента, тошнотность по ключу и плотность и т.п. На основе этих данных до 2014 года строилась выдача. В ТОП зайти было можно простым набором ссылочной массы с разбавленными анкорами, которые в большинстве делались из рубки текста страницы с добавлением ключей.
Далее пришел новый алго - т.е машинное обучение выдачи на основе (спора было много, кажется народ остановился в выводах по алго на 460 входных данных). но это чушь. Первый нейропакет был очень дешевеньким с слабым, но его использование помогло (за счет минимального набора входных данных) быстро совместить ВЫДАЧУ ДО с "ручной" базой" и через год машинного обучения с НОВОЙ базой.
Когда выдача превратилась в элементарную манипуляцию посредством ссылок и другими простыми способами, когда яндексоиды поняли, что их просто кинули, приобретя дешевый программный продукт, они все-таки приобрели БОЛЬШОЙ и дорогой, в котором есть возможность вносить не 460 факторов, а 6000 данных.
И после этого был КЛИЧ, что ссылочное не работает. Сделано спецом, чтобы максимально удалить фактор влияния ссылок и т.п. Народ повелся. Кто не хотел - там вручили Минусинск.
Недавно из минусинска вышли все сайта, попавшие туда по желанию яндекса.
Теперь, после совмещения всех баз данных по выдаче, те после ввода данных всех имеющихся от СTR до определения коммерции или инфо, после возможности добавления в расчеты внешних факторов от ПФ до внешней рекламы (TV и радио), что могло дать всплеск посещаемости, другой рекламы ... включения ссылочного влияния и т.п. Яндексоиды объявляют об новом алго.
Так понятнее?
Ну это уже самое простое. Есть библиотеки слов, которые по разумению яндекса "цепляются" к теме - разделяя на коммерцию и информационные составляющие. Т.е. "купить" - если сайт признан Яшей коммерческим, то даже с отсутствием на конкретной релевантной странице самого слова "купить" при выдаче по запросу "купить голубого дурака", он будет давать сайт, где нет слово "купит", но сайт определен коммерческим и слово "голубой дурак" преобладающий относительно аналогичного сайта ... и т.п.
Фигня все это.
Они раньше делали апы чтоб спустить сеошников с топа, усилить рентабельность директа.
Теперь я ожидаю частую смену формулы директа и интерфейса директа. Это денег принесет.
В 2015 ссылки отлично работали, но руками хорошо все правили.
2016 -год директа, яб так сказал.
Ща как было все убого по сложным запросам, так и будет дальше. Разные причины (удел самой идеи поиска, рентабельность против директа).
Для меня пока нет смысла в данном алго, больше на публику и отвод от сути.
---------- Добавлено 02.11.2016 в 15:56 ----------
Ну это уже самое простое. Есть библиотеки слов, которые по разумению яндекса "цепляются" к теме - разделяя на коммерцию и информационные составляющие. Т.е. "купить" - если сайт признан Яшей коммерческим, то даже с отсутствием на конкретной релевантной странице самого слова "купить" при выдаче по запросу "купить голубого дурака", он будет давать сайт, где нет слово "купит", но сайт определен коммерческим и слово "голубой дурак" преобладающий относительно аналогичного сайта ... и т.п.
Это лучше Сергею расскажите, без обид =) Я это все знаю.
в котором есть возможность вносить не 460 факторов, а 6000 данных.
Я когда каждый раз читаю о сотнях факторов у меня волосы шевелятся на всех местах. Я наверно и 50 то не могу придумать. А еще как то установить их влияние на ранжирование.
Как по мне, главная фишка нейронного обучения это нелинейное построение ранжирование и выдачи. Все. Можно даже на старом кол-ве факторов 14го года. Остальное не более чем ПР.
---------- Добавлено 02.11.2016 в 15:58 ----------
Теперь я ожидаю частую смену формулы директа и интерфейса директа. Это денег принесет.
Зачем частую? Главное правильную. Теперь за пару дней сливается старый месячный бюджет с около нулевой эффективностью.
Профит.🤣
Скорее документ. Некоммерческие документы на коммерческих сайтах плохо ранжируются по коммерческим запросам. Но тем не менее вхождения слов купить существенно повышают релевантность запросу (именно для коммерческого документа), хотя их наличие не является обязательным, а в ряде случаев и допустимым.
ща сеошники про клюв и туловище начнут клиентам рассказывать =)))) это стеб? Чем убожественней их идеи, логика работы, качество, то тем ущербней терминология =)
Те, кто на трафик/лиды работают, те уже давно объясняли.
Зачем частую? Главное правильную. Теперь за пару дней сливается старый месячный бюджет с около нулевой эффективностью.
Профит.🤣
В Яндексе знают ;)
---------- Добавлено 02.11.2016 в 16:05 ----------
Те, кто на трафик/лиды работают, те уже давно объясняли.
глобальней мыслить нужно! :) Смысл есть.
Фигня все это.
Они раньше делали апы чтоб спустить сеошников с топа, усилить рентабельность директа.
Теперь я ожидаю частую смену формулы директа и интерфейса директа. Это денег принесет.
В 2015 ссылки отлично работали, но руками хорошо все правили.
2016 -год директа, яб так сказал.
Ща как было все убого по сложным запросам, так и будет дальше. Разные причины (удел самой идеи поиска, рентабельность против директа).
Для меня пока нет смысла в данном алго, больше на публику и отвод от сути.
---------- Добавлено 02.11.2016 в 15:56 ----------
Это лучше Сергею расскажите, без обид =) Я это все знаю.
Серега попутал нейроны и нейропакеты :)
Я директом не пользуюсь из принципа - жаба душит
А конверсия есть на всех клиентских сайтах
Поэтому, "ты не смотри, что у меня грудь маленькая, надо уметь с ней обращаться" - так и "заточка сайта под новые реалии и новый алго
Директ самое простое и безумно дорогое
---------- Добавлено 02.11.2016 в 16:08 ----------
Я когда каждый раз читаю о сотнях факторов у меня волосы шевелятся на всех местах. Я наверно и 50 то не могу придумать. А еще как то установить их влияние на ранжирование.
Я же написал, что условно кол-во факторов
Забудьте нелинейное и линейное - другая прога с другой идеологией :)
Директ самое простое и безумно дорогое
Улыбнули 🤣
Пускай лучше Яндекс боится разбора бюджетов ;) Аминь) А не фигней страдает!!! 🤣
Я же написал, что условно кол-во факторов
А яндекс постоянно заявляет, то у ссылки 105 что-ли факторов, то у документа сотни. И если они действительно придумали такое кол-во я хочу съесть тоже, что они там жрут.
Забудьте нелинейное и линейное - другая прога с другой идеологией :)
Не стоит этого забывать. Нелинейное построение на порядки осложняет вычисление влияние тех или иных факторов, степень их изменения и прочие. Это делает фактически бессмысленными большую часть инструментов анализа. В результате отсутствия хотя бы более менее четких "правил игры" сайты загоняются в директ т.к. есть вариант потратить бюджет на оптимизацию с неясным результатом или в директе, дорого, но прозрачно и понятно.
Я вижу смысл всех этих машинных алго только в этом т.к. разительной разницы в качестве поиска до\после что-то не заметно.
А яндекс постоянно заявляет, то у ссылки 105 что-ли факторов, то у документа сотни. И если они действительно придумали такое кол-во я хочу съесть тоже, что они там жрут.
Да наплевать на кол-во. Есть основные факторы.
Я вижу смысл всех этих машинных алго только в этом т.к. разительной разницы в качестве поиска до\после что-то не заметно.
Вы не в теме. Почитайте про нейросистемы и наличие нейропакетов. В этих прогах рулят данные и изменения человеком "внутренностей" проги невозможно. Это не "анализ" в чистом виде, а вычисление по вводным данным, коих может быть ограниченное кол-во