オールフリーソフトは最新のWindows OSで使えるフリーソフトを紹介します。
オールフリーソフトは最新のWindows OSで使えるフリーソフトを紹介します。
オールフリーソフト(トップ)インターネットホームページ作成・支援Website Explorer→Website Explorer - 更新履歴

Website Explorer - 更新履歴

0.9.9.21 β53
  • 解析するページとフォルダを絞り込むオプションを「フィルタ」に追加。
    設定(「詳細設定」ダイアログ)の「フィルタ」に「次の語をファイル名に含むページのみ解析する」と「次の語をフォルダ名に含むページのみ解析する」の2つを追加しました。
    従来「次の語をファイル名に含むページを解析しない」と「次の語をフォルダ名に含むページを解析しない」というオプションがありましたが、ユーザーのご要望に応えての機能追加です。
    使い方の詳細はソフトに付属のヘルプをご覧ください。(使用上の注意点も記載してあります。)
  • 「フィルタ」でキーワードに指定した語がフォルダに含まれていた場合も拾ってしまう不具合を修正。
0.9.9.20 β52
  • 「ツール」メニューの「文字数計算」が動作しなくなっていたバグの修正。
    文字数計算を実行するためには検索データベースが必要となります。
    サイト全文検索で検索データベースを作成していた場合には、あらたに作成する必要はありません。
  • 外部リンク一覧のチェックを実行中に他のタブを開いていると、外部リンク一覧のタブが点滅するようにした。
    これは外部リンク一覧のチェックをしていることを忘れないためです。
    但しちょっとチラツキが気になるかもしれません。
    外部リンク一覧を開くと点滅は止まります。
  • 設定で「ページ内リソースをサイトデータに含める」にチェックを入れて開始した場合、一部サイト(アメブロなど)で探査が途中終了してしまう不具合の修正。
  • 日本語サブドメインに対応(ほにゃらら.example.jp など)。
    Website Explorerは日本語ドメインには対応していましたが、日本語サブドメインに対応していませんでした。
    今回、ユーザーの方からのご指摘で対応しました。
0.9.9.19 β51
  • 登録したサイトのデータサイズを従来の10分の1程度にまで圧縮。
    Website Explorer で探査し、保存したサイトデータは、サイトごとのフォルダに拡張子 .wbx が付くテキストファイルとして作成されてきました。
    しかしテキストファイルであるにも関わらず、サイズが無駄に大きい傾向があるため、最新版ではファイルを自動的に圧縮保存するようにしました。
    圧縮形式は bzip2 で、拡張子 .wez を持つファイルとして保存されます。
    (拡張子 .exp のファイルは圧縮されません。また、「_TemporaryData」フォルダに保存されるデータは、 従来通り .wbx のままで圧縮されません。)
    また特に Links3.wbx と Links4.wbx の2つはサイズが異常に大きいため、データ形式を効率化してから圧縮しています。
    この結果、サイトデータの圧縮率(圧縮前÷圧縮後×100で計算)はサイトにより、従来の6%〜14%程度にまで圧縮することに成功しました。
    既に作成済みのサイトデータがある場合、そのデータを開く際に自動的に圧縮されます
    (但し Links3.wbx と Links4.wbx の2つは圧縮のみで、効率化処理はされません)。
    圧縮ファイル *.wez は bzip2 を解凍できる解凍・圧縮ソフトを使って解凍(展開)し、元のテキストファイルに戻すことができますが、通常は Website Explorer が圧縮・展開を内部で行うので、ユーザーが何かをする必要はありません。
    但し旧バージョンの Website Explorer は最新版が作成したデータを読み込むことができません。
    このため、旧バージョンの Website Explorer を使う機会のある人は古いデータをフォルダごとバックアップしておくことを お勧めします。
  • 自動バックアップ用「_TemporaryData」フォルダが登録サイト名を記憶できるようにした。
    Website Explorer がサイト探査を実行すると自動作成される「_TemporaryData」フォルダは、主にアベンド(異常終了)対策としてバックアップデータに使われますが、名前をつけて保存したサイトを再開または再探査している間にアベンドした場合、これまでは、「_TemporaryData」フォルダを開いてデータを復活させても別名で保存するしかありませでした。
    最新版ではバックアップデータが登録サイト名まで記憶するようになったので、登録サイト名で上書き保存することが可能になりました。
  • CSS ファイル内でコメントアウトされた箇所のリンクを読み込んでしまうバグの修正。
    従来のバージョンではCSS ファイル内のコメントアウトの有無をチェックしておらず、 コメントアウト内のリンクを読み込んだり、リンクエラーとして表示したりしていました。
    ユーザーの方からご指摘を受けながら、対応が遅くなったことをお詫びします。
0.9.9.18 β50
  • フォルダダウンロードにおいて UTF-8 等の文字コードをそのまま保存するようにした。
    フォルダダウンロードとは、対象サイトのファイルをフォルダの階層構造を保ったまま、連続してダウンロードする機能です。
    もちろん、ダウンロードするファイルの種類やフォルダを限定したり、階層構造を無視して1つのフォルダにまとめてダウンロードするオプションもあります。
    フォルダダウンロードにはまた、ダウンロードするソースファイル(HTML で書かれたファイル)について、「オリジナルを保持し、書き換えをしない」か、「ローカル環境に最適化するため、リンクを書き換える」かを決める選択肢が用意されています。
    インターネット上とローカルでは、ルートパスなどリンクの指定方法が異なるため、ローカル環境で Web ページのリンクの整合性を保つためにはソースを書き換えなければなりません。
    また、リンク先のファイルを not found にしないために、ダウンロードしなかったリンク先のファイルは相対(ローカル)パスから絶対パス(ネット上のアドレス)に変更する必要があります。
    こうしたことを行うのが、「ローカル環境に最適化するため、リンクを書き換える」です。
    これはダウンロードした Web ページをローカルで閲覧するには最適ですが、ローカル環境に最適化したファイルをネット上にアップロードしないでください。リンクが整合しなくなるので、表示や動作がおかしくなる可能性があります。
    ネット上に再度アップロードすることを前提にダウンロードする場合は「オリジナルを保持し、書き換えをしない」にすることをお勧めします。
    前置きが長くなりました!
    「リンクを書き換える」を選んだ場合、もともとは文字通り Web ページのリンクの置換だけを行っていたのですが、Ver.0.9.9.12 で日本語ファイル名、日本語フォルダ名に対応した際、URL エンコードされたファイルやフォルダをフォルダダウンロードした場合に、そのローカルのファイル名をどうするかという問題に直面しました。
    エンコードしたままのファイル名、例えば、
    %E6%97%A5%E6%9C%AC%E8%AA%9E.html
    (必要に応じて拡張子を付加)というファイル名でローカル保存するやり方が一番簡単で、無難なのですが、せっかく日本語ファイル名を使っているのでローカルでは日本語ファイル名(日本語.html)にデコードして保存したほうがわかりやすいと考え、そうしたのです。
    デコードされた文字コードはたいてい UTF-8 なのですが、ローカルの日本語ファイル名を UTF-8 にすると文字化けするため、Shift_JIS に変換することにしました。
    ソースファイルのリンクも URL エンコードされたものはデコードしなければなりませんが、そこで使用するコードは UTF-8 のままでいいか?という疑問が生じ、ファイル名が Shift_JIS なのだからソースファイルも Shift_JIS に一致させるべきであると考えて、その通り実行しました。
    フォルダダウンロードで「ローカル環境に最適化」を選択した場合、ソースファイルの文字コードを UTF-8 から Shift_JIS に変換してきたのは、このような事情によります。
    通常はこれで問題ありませんでしたが、Shift_JIS がサポートしない文字は文字化けして表示されるというご指摘を受け、あらためて研究し直した結果、UTF-8 で書かれたソースのファイル名でも Shift_JIS のローカルファイル名にリンクすることが判明し、今回、ソースに使用された UTF-8 等の文字コードをそのまま保存するように方針転換しました。
    但し、検証の過程で細かな問題が次々と見つかり、結果的に膨大な日数がかかってしまったことをお詫びいたします。
    以上のほかにもいくつかの改善や変更を行っていますが、細かくは書きません。
    実際に使って、お確かめください。
0.9.9.17 β49
  • 「再開」ボタン使用に伴う不具合の修正。
    探査中の Website Explorer が自動終了(探査完了)する前にユーザーが探査を任意で中断した場合、「開始」ボタンの横に「再開」ボタンが現れます。
    前バージョン(Ver0.9.9.16)からは、中途で異常終了したサイトデータを復元した場合にも「再開」ボタンが使えるようになりました。
    「再開」ボタンをクリックすると、中断したポイントから探査を再開することができます。
    しかし前バージョン(Ver0.9.9.16)では、「再開」ボタンをクリックしても Website Explorer が正常に動作しないという不具合が見つかりました。
    これでは、せっかく復元できたサイトデータも再開できません。今回は、この不具合を完全に修正しています。
    更に、「再開」機能の動作テストの過程で、「再開」後にリンク変換機能の一部が誤作動し、実在しないリンクエラーが大量に発生するという問題が検出されました。
    この問題は、すでに Ver0.9.9.12 から続いていた可能性があります。
    これの原因究明に時間がかかりましたが、今回この問題も完全に解決しました。
0.9.9.16 β48
  • 探査データの自動バックアップを実現。
    「開始」ボタンをクリックしてから自動終了または任意で中断するまでのデータの収集・解析作業 (これを探査と呼んでいます)の間、データは常に・自動的にバックアップされるようになりました。
    これまでは、探査終了後にユーザーが「保存」をクリックした時点で初めてデータがファイルに保存されるシステムでした。
    しかし探査中に、Website Explorer が何らかの原因で異常終了することがあるかもしれません。
    また、データ量が極端に多いサイトを長時間かけて探査したら完了時にフリーズし、強制終了せざるを得なかったというケースも報告されています。
    長時間かけて集めたデータが一瞬で失われたのでは、たまりませんね。
    今回から、探査開始と同時にデータは一時フォルダにバックアップされ、これが探査終了または中断まで続けられます。
    従って、異常終了の場合でもデータが失われることはありません。 Website Explorer を再起動してバックアップデータを読み込めば、探査を正常に完了した場合と同様の結果が得られます。
    バックアップデータは Website Explorer と同一のフォルダ内に _TemporaryData というフォルダを自動生成して、その中に保存されています。
    Website Explorer の起動後の 画面の中に
    !最後に探査を実行した未登録のサイトデータがあります。
    ・実施日時:20**/**/** **:**:**
    ・開始アドレス:http://***.***/ 復元する
    という個所があるので、「復元する」をクリックすることによりバックアップデータを読み込むことができます。
    バックアップデータは、すべての探査の際に自動生成され、探査のたびごとに更新されます。
    バックアップデータが削除されることはありませんが、バックアップデータを読み込んでサイトデータとして保存する前に新たな探査を行うとバックアップデータの中身も入れ替わるので注意してください。
    バックアップデータは、あくまでバックアップ用であり、それ以外は特に読み込む必要はありません。
    通常は、無視しても大丈夫です。
  • HTTP ヘッダを取得できないサイトのデータも解析可能にした。
    これまで Website Explorer は、サーバから返される HTTP ヘッダに基づいてデータ取得を行ってきました。
    HTTP ヘッダといっても一般の人には判りにくいかもしれませんが、とにかくそれを取得できないと、探査を開始できないだけでなく、外部リンク一覧の中にあっても、そのサイトは (no response) と表示されるのです。
    今まで HTTP ヘッダを返さないサイトに出会ったことが無かったので、まともなサイトは HTTP ヘッダを返すのが当たり前と考えていたのですが、ユーザーの方から探査できないというご連絡のあったサイトが HTTP ヘッダを取得できないことが判明し、更に調べてみると、某ブックや某つぶやきサイトのような大手SNSでも HTTP ヘッダを返さないことに気づきました。
    Website Explorer をSNSで使用したことはありませんが、外部リンク一覧の中でこれらのサイトが (no response) となっていることから不自然さに気づいたのです。
    実は HTTP ヘッダを取得できなくても Website Explorer は動作可能なので、今回からHTTP ヘッダに依存しない方式に変更しました。
    これからは HTTP ヘッダを返さないサイトでもそれが原因で (no response) と表示されたり探査できなかったりすることはありません。
  • 「メタ・ディスクリプション」等を非表示にできるようにした 。
    2016年5月リリースのバージョン 0.9.9.14 β46 からサイト探査時に 全HTML ページの「メタ・ディスクリプション」、「メタ:キーワード」、「H1 タグ」を取得し、一覧表示できるようにしましたが、これが反響イマイチ、というより反響ゼロで、不評だったみたいです。
    たしかに、必要ない人にとって、これらは邪魔なだけかもしれません。
    そこで今回から、これらを非表示にできるようにしました。
    「サイト内ページ」のツールバーに「メタ・ディスクリプション等を表示」というチェックボックスがあるので、このチェックを外せば非表示になります。
    チェックを入れれば再び表示されます。この設定は記憶され、次回起動時も有効です。
0.9.9.154 β47
  • 「List.wbx を読み込むことが出来ませんでした。」という不具合の修正。
    前バージョン(Ver0.9.9.15)において保存済みサイトデータを復元しようとすると、「List.wbx を読み込むことが出来ませんでした。」というエラーメッセージが表示されて、データを正常に復元できないケースのあることがユーザー様から報告されました。
    List.wbx はサイト内データを扱い、これを改行区切りリストとして保存します。
    Windows では改行コードは CR+LF であるべきですが、他のシステムで作成された短文などをユーザーが copy & paste して使用した場合、CR 単独または LF 単独の改行コードが混入するというケースが発生します。
    「現在使用している開発システムでは単独の CR または LF もデリミタ(区切り文字)として認識してしまうため、そこでデータが区切られて配列が変わってしまい、数値が入るべきところに文字列型データが入って変換エラーとなる場合が起こりえます。
    これは当然予見されたことで、CR 単独または LF 単独の改行コードを無効化する処理も入れていたのですが、一部のコードで見落としがありました。
    (HTML ソースの「メタ・ディスクリプション」に関係しています。)
    今回は、この点を修正し、前回エラーとなったデータも正常に復元できるようにしただけでなく、新たなデータ保存の際も単独の CR または LF を無効化または CR+LF へ変換するようにしています。
※このページは「Readme.txt」から引用させていただきました。
引用元
「Readme.txt」
オールフリーソフト(トップ)インターネットホームページ作成・支援Website Explorer→Website Explorer - 更新履歴

セキュリティ
ウイルス対策
スパイウェア対策
 
CD/DVD/Blu-ray
ライティング
DVDコピー
 
ハードウェア
ディスクデフラグ
ハードディスク
 
システム
システム最適化・高速化
テーマ・スタイル
 
インターネット
ブラウザ
メール
 
ファイル/フォルダ
圧縮・解凍
エクスプローラ
 
音声・動画
音声・動画変換,圧縮
動画キャプチャ
 
プレーヤー
マルチメディアプレーヤー
ミュージックプレーヤー
 
画像
画像作成・加工
画像変換・圧縮
 
デスクトップ
プログラムランチャー
デスクトップアクセサリー
 
文書
テキスト・入力関連
オフィス
 
ホーム
地図・交通・旅行
カレンダー
 
オールフリーソフトでバックアップ
 
バージョンアップ情報
 
Windows 8とWindows 8.1について
 
オールフリーソフトでDVDコピー
 
人気ソフトTOP 20
 
Windows 10 対応情報
 
対応OSの表記方法について
 
重要なお知らせ
 
サイトについて
 
サイトマップ
 
ブログ
 
リンク
 
スマホアプリナビ
 
Firefox アドオン
 
Twitter
 
Facebook
 
お問い合わせ
 
RSS
 
マストドン
 
PVランキング
 
Copyright © オールフリーソフト All rights reserved