クリエイターの教科書

Excel, ChatGPT, Stable Diffusion, Visual Studioなどの教科書

ウェブサイト管理・最適化のチェックリスト

ウェブサイトの管理は、デッドリンクや反応速度の最適化など多岐にわたります。

ここでは自分の作業用メモをを紹介。はてなブログでは設定>詳細設定から解析ツールの埋め込みが可能。

ウェブサイト管理

インデックス登録

サイトマップを作る

正しく検索サイトに登録するにはサイトマップを作るのがベストです。

作成には以下ソフトが便利です。

Website Explorer (ウェブサイト・エクスプローラ)の詳細情報 : Vector ソフトを探す!

 

起動後、URLに調べたいサイトを記入。「開始」でクロール。「ツール>サイトマップXMLの作成」で作ります。

 

引数で作ったページを有効にするには、詳細設定で設定をしておく必要があります。



 

新規登録

サチコへファイルを登録します。

新規登録するには「URL検査」から行います。

 

 

登録されているか確認

インデックス作成で「ページ」を確認し、未登録ページがあれば理由をチェックします。

 

 

レスポンスの最適化

サイトのレスポンスも、検索サイトでは考慮されているようです。

 

サーチコンソール

サチコの場合「エクスペリエンス>ページエクスペリエンス」を確認します。

 

ページスピードインサイツ

またインサイツで調べると、より詳細にチェックできます。

PageSpeed Insights (web.dev)

 

 

ユーザ体験の最適化

デッドリンク、デッドクリック

マイクロソフトClarityを使うと、ユーザの動作を録画のようみることができます。リンクのない画像をクリックされていたら、画像にもリンクを入れるなどしてユーザのウェブ操作を最適化してきましょう。

 

またデッドクリックなどを確認できます。

 

 

ボットの排除

Robots.txt

Robotでは不要なBOTを拒否したり、不要となったページやディレクトリを指定することができます。

 

自前プログラム

自分である程度正確にカウンタを作りたい場合、クローラのアクセスは邪魔となります。PHPでは以下のようにつくることでボットを排除できます。

【PHP】クローラーからのアクセスかどうかを判定する仕組みを作ってみるべ – モバPレポート (extend-col.org)

 

クローラーのユーザーエージェント一覧はこちらにまとまっています。

monperrus/crawler-user-agents: Syntactic patterns of HTTP user-agents used by bots / robots / crawlers / scrapers / spiders. pull-request welcome :star: (github.com)

 

 

なおプログラムは毎回の処理があれなんで、うちではpregで比較する文字列を最初に作っておき底と照合するようにしました。たまに文字列データを更新しておけばいいかなぐらいです。

 

 

はてなブログの解析設定

はてなブログは、多くのことをはてなが管理しているので楽でもあり、変更したいのにできないというもどかしさもあり、いい点悪い点両方あります。

 

Google アナリティクス 4 埋め込み

測定用ID「G-*****」を調べるには、グーグルアナリティクスへ移動。

ホーム>管理>データストリーム から測定用IDがわかります。

 

Google Analytics 埋め込み

UA-********は非推奨。

 

Google Search Console(旧 Google ウェブマスター ツール)

「サーチコンソールで設定>所有権の確認」へ移動。

HTMLタグで確認。確認済の場合は不要?

 

Bing ウェブマスターツール

ユーザの管理>サイトの所有権を確認。

このブログは、ネットや書籍上の情報、個人の体験や感想を中心にまとめたものです。 正確性を期していはいますが、間違い・誤訳等あるかもしれません。 当サイトの情報によって生じたいかなる損失について一切の責任を負わないものとします. あらかじめご了承ください。

プライバシーポリシー |〇利用規約 |〇問い合わせ