Хабрастатыстыка: даследуем найболей і найменш наведвальныя часткі сайта

Прывітанне, Хабр.

В папярэдняй часткі была прааналізавана наведвальнасць Хабра па асноўных параметрах - колькасці артыкулаў, іх праглядах і рэйтынгах. Аднак пытанне папулярнасці раздзелаў сайта засталося не разгледжаным. Стала цікава разгледзець гэта больш падрабязна, і знайсці самыя папулярныя і самыя непапулярныя хабы. Нарэшце, я разгледжу "geektimes-эфект" больш падрабязна, і ў завяршэнні чытачы атрымаюць новую падборку лепшых артыкулаў па новых рэйтынгах.

Хабрастатыстыка: даследуем найболей і найменш наведвальныя часткі сайта

Каму цікава што атрымалася, працяг пад катом.

Яшчэ раз нагадаю, што статыстыка і рэйтынг не з'яўляюцца афіцыйнымі, ніякай інсайдэрскай інфармацыі ў мяне няма. Таксама не гарантуецца, што я недзе не памыліўся ці не прапусціў. Але ўсё ж, мяркую, атрымалася цікава. Мы прыступім спачатку да кода, каму гэта неактуальна, першыя раздзелы могуць прапусціць.

збор дадзеных

У першай версіі парсера ўлічвалася толькі колькасць праглядаў, каментароў і рэйтынг артыкулаў. Гэта ўжо нядрэнна, але не дазваляе рабіць больш складаныя запыты. Час прааналізаваць тэматычныя раздзелы сайта, гэта дазволіць рабіць дастаткова цікавыя даследаванні, напрыклад, паглядзець як мянялася папулярнасць раздзела «С++» за некалькі гадоў.

Парсер артыкулаў быў палепшаны, зараз ён вяртае хабы, да якіх адносіцца артыкул, а таксама нік аўтара і яго рэйтынг (тут таксама можна зрабіць шмат цікавага, але гэта потым). Дадзеныя захаваны ў csv-файле прыкладна такога выгляду:

2018-12-18T12:43Z,https://habr.com/ru/post/433550/,"Мессенджер Slack — причины выбора, косяки при внедрении и особенности сервиса, облегчающие жизнь",votes:7,votesplus:8,votesmin:1,bookmarks:32,
views:8300,comments:10,user:ReDisque,karma:5,subscribers:2,hubs:productpm+soft
...

Атрымаем спіс асноўных тэматычных хабаў сайта.

def get_as_str(link: str) -> Str:
    try:
        r = requests.get(link)
        return Str(r.text)
    except Exception as e:
        return Str("")

def get_hubs():
    hubs = []
    for p in range(1, 12):
        page_html = get_as_str("https://habr.com/ru/hubs/page%d/" % p)
        # page_html = get_as_str("https://habr.com/ru/hubs/geektimes/page%d/" % p)  # Geektimes
        # page_html = get_as_str("https://habr.com/ru/hubs/develop/page%d/" % p)  # Develop
        # page_html = get_as_str("https://habr.com/ru/hubs/admin/page%d" % p)  # Admin
        for hub in page_html.split("media-obj media-obj_hub"):
            info = Str(hub).find_between('"https://habr.com/ru/hub', 'list-snippet__tags') 
            if "*</span>" in info:
                hub_name = info.find_between('/', '/"')
                if len(hub_name) > 0 and len(hub_name) < 32:
                    hubs.append(hub_name)
    print(hubs)

Функцыя find_between і клас Str вылучаюць радок паміж двух тэгаў, я выкарыстоўваў іх раней. Тэматычныя хабы адзначаны "*", так што іх лёгка вылучыць, можна таксама раскаментаваць адпаведныя радкі, каб атрымаць раздзелы іншых катэгорый.

На выхадзе функцыі get_hubs атрымліваем дастаткова вялікі спіс, які захоўваем як dictionary. Адмыслова прыводжу спіс цалкам, каб можна было ацаніць яго аб'ём.

hubs_profile = {'infosecurity', 'programming', 'webdev', 'python', 'sys_admin', 'it-infrastructure', 'devops', 'javascript', 'open_source', 'network_technologies', 'gamedev', 'cpp', 'machine_learning', 'pm', 'hr_management', 'linux', 'analysis_design', 'ui', 'net', 'hi', 'maths', 'mobile_dev', 'productpm', 'win_dev', 'it_testing', 'dev_management', 'algorithms', 'go', 'php', 'csharp', 'nix', 'data_visualization', 'web_testing', 's_admin', 'crazydev', 'data_mining', 'bigdata', 'c', 'java', 'usability', 'instant_messaging', 'gtd', 'system_programming', 'ios_dev', 'oop', 'nginx', 'kubernetes', 'sql', '3d_graphics', 'css', 'geo', 'image_processing', 'controllers', 'game_design', 'html5', 'community_management', 'electronics', 'android_dev', 'crypto', 'netdev', 'cisconetworks', 'db_admins', 'funcprog', 'wireless', 'dwh', 'linux_dev', 'assembler', 'reactjs', 'sales', 'microservices', 'search_technologies', 'compilers', 'virtualization', 'client_side_optimization', 'distributed_systems', 'api', 'media_management', 'complete_code', 'typescript', 'postgresql', 'rust', 'agile', 'refactoring', 'parallel_programming', 'mssql', 'game_promotion', 'robo_dev', 'reverse-engineering', 'web_analytics', 'unity', 'symfony', 'build_automation', 'swift', 'raspberrypi', 'web_design', 'kotlin', 'debug', 'pay_system', 'apps_design', 'git', 'shells', 'laravel', 'mobile_testing', 'openstreetmap', 'lua', 'vs', 'yii', 'sport_programming', 'service_desk', 'itstandarts', 'nodejs', 'data_warehouse', 'ctf', 'erp', 'video', 'mobileanalytics', 'ipv6', 'virus', 'crm', 'backup', 'mesh_networking', 'cad_cam', 'patents', 'cloud_computing', 'growthhacking', 'iot_dev', 'server_side_optimization', 'latex', 'natural_language_processing', 'scala', 'unreal_engine', 'mongodb', 'delphi',  'industrial_control_system', 'r', 'fpga', 'oracle', 'arduino', 'magento', 'ruby', 'nosql', 'flutter', 'xml', 'apache', 'sveltejs', 'devmail', 'ecommerce_development', 'opendata', 'Hadoop', 'yandex_api', 'game_monetization', 'ror', 'graph_design', 'scada', 'mobile_monetization', 'sqlite', 'accessibility', 'saas', 'helpdesk', 'matlab', 'julia', 'aws', 'data_recovery', 'erlang', 'angular', 'osx_dev', 'dns', 'dart', 'vector_graphics', 'asp', 'domains', 'cvs', 'asterisk', 'iis', 'it_monetization', 'localization', 'objectivec', 'IPFS', 'jquery', 'lisp', 'arvrdev', 'powershell', 'd', 'conversion', 'animation', 'webgl', 'wordpress', 'elm', 'qt_software', 'google_api', 'groovy_grails', 'Sailfish_dev', 'Atlassian', 'desktop_environment', 'game_testing', 'mysql', 'ecm', 'cms', 'Xamarin', 'haskell', 'prototyping', 'sw', 'django', 'gradle', 'billing', 'tdd', 'openshift', 'canvas', 'map_api', 'vuejs', 'data_compression', 'tizen_dev', 'iptv', 'mono', 'labview', 'perl', 'AJAX', 'ms_access', 'gpgpu', 'infolust', 'microformats', 'facebook_api', 'vba', 'twitter_api', 'twisted', 'phalcon', 'joomla', 'action_script', 'flex', 'gtk', 'meteorjs', 'iconoskaz', 'cobol', 'cocoa', 'fortran', 'uml', 'codeigniter', 'prolog', 'mercurial', 'drupal', 'wp_dev', 'smallbasic', 'webassembly', 'cubrid', 'fido', 'bada_dev', 'cgi', 'extjs', 'zend_framework', 'typography', 'UEFI', 'geo_systems', 'vim', 'creative_commons', 'modx', 'derbyjs', 'xcode', 'greasemonkey', 'i2p', 'flash_platform', 'coffeescript', 'fsharp', 'clojure', 'puppet', 'forth', 'processing_lang', 'firebird', 'javame_dev', 'cakephp', 'google_cloud_vision_api', 'kohanaphp', 'elixirphoenix', 'eclipse', 'xslt', 'smalltalk', 'googlecloud', 'gae', 'mootools', 'emacs', 'flask', 'gwt', 'web_monetization', 'circuit-design', 'office365dev', 'haxe', 'doctrine', 'typo3', 'regex', 'solidity', 'brainfuck', 'sphinx', 'san', 'vk_api', 'ecommerce'}

Для параўнання, часткі geektimes выглядаюць сціплей:

hubs_gt = {'popular_science', 'history', 'soft', 'lifehacks', 'health', 'finance', 'artificial_intelligence', 'itcompanies', 'DIY', 'energy', 'transport', 'gadgets', 'social_networks', 'space', 'futurenow', 'it_bigraphy', 'antikvariat', 'games', 'hardware', 'learning_languages', 'urban', 'brain', 'internet_of_things', 'easyelectronics', 'cellular', 'physics', 'cryptocurrency', 'interviews', 'biotech', 'network_hardware', 'autogadgets', 'lasers', 'sound', 'home_automation', 'smartphones', 'statistics', 'robot', 'cpu', 'video_tech', 'Ecology', 'presentation', 'desktops', 'wearable_electronics', 'quantum', 'notebooks', 'cyberpunk', 'Peripheral', 'demoscene', 'copyright', 'astronomy', 'arvr', 'medgadgets', '3d-printers', 'Chemistry', 'storages', 'sci-fi', 'logic_games', 'office', 'tablets', 'displays', 'video_conferencing', 'videocards', 'photo', 'multicopters', 'supercomputers', 'telemedicine', 'cybersport', 'nano', 'crowdsourcing', 'infographics'}

Аналагічна былі захаваны астатнія хабы. Цяпер нескладана напісаць функцыю, якая вяртае вынік, адносіцца артыкул да geektimes або да профільнага хаба.

def is_geektimes(hubs: List) -> bool:
    return len(set(hubs) & hubs_gt) > 0

def is_geektimes_only(hubs: List) -> bool:
    return is_geektimes(hubs) is True and is_profile(hubs) is False

def is_profile(hubs: List) -> bool:
    return len(set(hubs) & hubs_profile) > 0

Аналагічныя функцыі былі зроблены для іншых раздзелаў ("распрацоўка", "адміністраванне" і інш).

Апрацоўка

Час прыступаць да аналізу. Загружаем датасет і апрацоўваем дадзеныя хабаў.

def to_list(s: str) -> List[str]:
    # "user:popular_science+astronomy" => [popular_science, astronomy]
    return s.split(':')[1].split('+')

def to_date(dt: datetime) -> datetime.date:
    return dt.date()

df = pd.read_csv("habr_2019.csv", sep=',', encoding='utf-8', error_bad_lines=True, quotechar='"', comment='#')
dates = pd.to_datetime(df['datetime'], format='%Y-%m-%dT%H:%MZ')
dates += datetime.timedelta(hours=3)
df['date'] = dates.map(to_date, na_action=None)
hubs = df["hubs"].map(to_list, na_action=None)
df['hubs'] = hubs
df['is_profile'] = hubs.map(is_profile, na_action=None)
df['is_geektimes'] = hubs.map(is_geektimes, na_action=None)
df['is_geektimes_only'] = hubs.map(is_geektimes_only, na_action=None)
df['is_admin'] = hubs.map(is_admin, na_action=None)
df['is_develop'] = hubs.map(is_develop, na_action=None)

Цяпер мы можам згрупаваць дадзеныя па днях і вывесці колькасць публікацый па розных хабах.

g = df.groupby(['date'])
days_count = g.size().reset_index(name='counts')
year_days = days_count['date'].values
grouped = g.sum().reset_index()
profile_per_day_avg = grouped['is_profile'].rolling(window=20, min_periods=1).mean()
geektimes_per_day_avg = grouped['is_geektimes'].rolling(window=20, min_periods=1).mean()
geektimesonly_per_day_avg = grouped['is_geektimes_only'].rolling(window=20, min_periods=1).mean()
admin_per_day_avg = grouped['is_admin'].rolling(window=20, min_periods=1).mean()
develop_per_day_avg = grouped['is_develop'].rolling(window=20, min_periods=1).mean()

Выводзім колькасць апублікаваных артыкулаў з дапамогай Matplotlib:

Хабрастатыстыка: даследуем найболей і найменш наведвальныя часткі сайта

Я падзяліў у графіку артыкулы "geektimes" і "geektimes only", т.я. артыкул можа належаць да абедзвюх раздзелаў адначасова (напрыклад "DIY" + "мікракантролеры" + "З++"). Абазначэннем «profile» я вылучыў профільныя артыкулы сайта, хоць магчыма, ангельскі тэрмін profile для гэтага не зусім дакладны.

У папярэдняй частцы пыталіся пра "geektimes-эфект", звязаны са зменай правілаў аплаты артыкулаў для geektimes з гэтага лета. Вывядзем асобна артыкулы geektimes:

df_gt = df[(df['is_geektimes_only'] == True)]
group_gt = df_gt.groupby(['date'])
days_count_gt = group_gt.size().reset_index(name='counts')
grouped = group_gt.sum().reset_index()
year_days_gt = days_count_gt['date'].values
view_gt_per_day_avg = grouped['views'].rolling(window=20, min_periods=1).mean()

Вынік цікавы. Прыкладныя суадносіны праглядаў артыкулаў geektimes да агульнага недзе 1:5. Але калі агульная колькасць праглядаў прыкметна вагалася, то прагляд "забаўляльных" артыкулаў трымаўся прыкладна на адным узроўні.

Хабрастатыстыка: даследуем найболей і найменш наведвальныя часткі сайта

Таксама можна заўважыць, што агульная колькасць праглядаў артыкулаў раздзела "geektimes" пасля змены правіл усё ж звалілася, але "на вока", не больш чым на 5% ад агульных значэнняў.

Цікава паглядзець сярэднюю колькасць праглядаў на артыкул:

Хабрастатыстыка: даследуем найболей і найменш наведвальныя часткі сайта

Для "забаўляльных" артыкулаў яно прыкладна на 40% вышэй сярэдняга. Мусіць, гэта нядзіўна. Правал у пачатку красавіка мне незразумелы, можа так і было, ці гэта нейкая памылка парсінгу, а можа нехта з аўтараў geektimes сышоў у адпачынак ;).

Дарэчы, на графіцы бачныя яшчэ два прыкметныя пікі колькасці праглядаў артыкулаў — навагоднія і майскія святы.

Хабы

Пяройдзем да абяцанага аналізу хабаў. Вывядзем топ 20 хабаў па колькасці праглядаў:

hubs_info = []
for hub_name in hubs_all:
    mask = df['hubs'].apply(lambda x: hub_name in x)
    df_hub = df[mask]

    count, views = df_hub.shape[0], df_hub['views'].sum()
    hubs_info.append((hub_name, count, views))

# Draw hubs
hubs_top = sorted(hubs_info, key=lambda v: v[2], reverse=True)[:20]
top_views = list(map(lambda x: x[2], hubs_top))
top_names = list(map(lambda x: x[0], hubs_top))

plt.rcParams["figure.figsize"] = (8, 6)
plt.bar(range(0, len(top_views)), top_views)
plt.xticks(range(0, len(top_names)), top_names, rotation=90)
plt.ticklabel_format(style='plain', axis='y')
plt.tight_layout()
plt.show()

Вынік:

Хабрастатыстыка: даследуем найболей і найменш наведвальныя часткі сайта

На здзіўленне, самым папулярным па праглядах аказаўся хаб «Інфармацыйная бяспека», таксама ў топ-5 лідэраў уваходзяць «Праграмаванне» і «Popular science».

Антытоп займае Gtk і Cocoa.

Хабрастатыстыка: даследуем найболей і найменш наведвальныя часткі сайта

Скажу па сакрэце, топ хабаў таксама можна ўбачыць і тут, хоць колькасць праглядаў там не паказана.

Рэйтынг

І нарэшце, абяцаны рэйтынг. Выкарыстоўваючы дадзеныя аналізу хабаў, мы можам вывесці самыя папулярныя артыкулы па самых папулярных хабах за гэты 2019 год.

Інфармацыйная бяспека

Праграмаванне

Навукова-папулярнае

кар'ера

Заканадаўства ў IT

Вэб-дэвелапмент

GTK

І нарэшце, каб нікому не было крыўдна, прывяду рэйтынг самага маланаведвальнага хаба "gtk". У ім за год была апублікавана адна артыкул, яна ж аўтаматам займае першы радок рэйтынгу.

Заключэнне

Зняволення не будзе. Усім прыемнага чытання.

Крыніца: habr.com

Дадаць каментар