■ このスレッドは過去ログ倉庫に格納されています
お勧めダウンロード(丸ごと取り込み)ソフト3
- 1 :名無しさん@お腹いっぱい。:2007/02/06(火) 19:13:37 ID:SEh3Iu6i0
- 過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
- 2 :名無しさん@お腹いっぱい。:2007/02/06(火) 19:14:55 ID:/qPOMJxv0
- 【アップローダー】
必ずPCからの閲覧を許可に設定して下さい。
動画の場合「保存許可」や「ダウンロード許可」も設定して下さい。
■静止画専用 イメぴた(http://imepita.jp) 送信先アドレス:p@imepita.jp (1ページに1枚・追加不可)
■動画専用 UPdoga(http://www.updoga.com/) 送信先アドレス:upp@updoga.com (PCからの投稿不可)
■@ピタ(http://pita.st/) 送信先アドレス:up@pita.st (4:20am〜4:40am 定期メンテ)
■ナショナルアドレス(http://new.cx/) 送信先アドレス:up@new.cx (8:00pm〜4:00amはPCからの閲覧不可)
■ピクト(http://www.pic.to/) 送信先アドレス:up@pic.to (7:00pm〜4:00amはPCからの閲覧不可)
■あぷあぷ(http://upup.be/) 送信先アドレス:up@upup.be (最大6枚/500kb・動画可)
※@ピタ利用の際のお願い
@ピタはauユーザーが動画を見れませんので、携帯向けにナショナルアドレスにもアップロードして頂くか、
【静止画】@ピタ【動画】UPdoga という様に使い分けをして頂けると幸いです。
お手数をおかけしますが宜しくお願いします。
- 3 :名無しさん@お腹いっぱい。:2007/02/06(火) 19:17:04 ID:iHoHF+zi0
- そ れ P l a g g e r で
- 4 :名無しさん@お腹いっぱい。:2007/02/06(火) 19:22:12 ID:SEh3Iu6i0
- 巡集
http://sdn255.web.fc2.com/
GetHTML
http://www.vector.co.jp/soft/win95/net/se077066.html
GetHTMLW
http://www.vector.co.jp/soft/win95/net/se077067.html
WeBoX
http://www-nishio.ist.osaka-u.ac.jp/~nakamura/webox/index.html
GetYou!
http://www.vector.co.jp/soft/win95/net/se076215.html
Offline Explorer(30ドル、英語、買うまでお勧めできるかというとちょっと…)
http://www.metaproducts.com/mp/mpProducts_Detail.asp?id=1
WinHTTrack(サイトは英語、中身は日本語)
http://www.httrack.com/page/2/en/index.html
<解説ページ> http://hetoheto.hp.infoseek.co.jp/022HTTrack/mokuji.htm
Teleport Pro(39.95ドル)
http://tenmax.com/teleport/pro/home.htm
ダウンローダー総合スレ
http://pc9.2ch.net/test/read.cgi/software/1162627679/
【Berry】画像掲示板巡回ソフトその2【moeBBS他】
http://pc9.2ch.net/test/read.cgi/software/1160984698/
【サイト取り込み】WeBoX part5【ダウンロード】
http://pc9.2ch.net/test/read.cgi/software/1133114304/
- 5 :名無しさん@お腹いっぱい。:2007/02/06(火) 19:23:28 ID:SEh3Iu6i0
- 適当にリンクを拾ってみました
スレを斜め読みすると過去の書き込みの情報がかなり重要だと思うのですがとても追い切れません
- 6 :名無しさん@お腹いっぱい。:2007/02/08(木) 04:53:43 ID:g+iNFN1T0
- >>1おつ
- 7 :名無しさん@お腹いっぱい。:2007/02/08(木) 17:26:52 ID:WWG7vakV0
- 乙
- 8 :名無しさん@お腹いっぱい。:2007/02/10(土) 18:26:33 ID:vydLZCQW0
- 未だに、更新のあるソフトの中でまともなのが無い件
- 9 :名無しさん@お腹いっぱい。:2007/02/11(日) 21:23:36 ID:jHpRrofD0
- 更新ないソフトでまともなのは?
- 10 :名無しさん@お腹いっぱい。:2007/02/15(木) 01:26:37 ID:Pl5f6i4o0
- hpに画像がサーバー外の画像のリンクから
画像を読み出して表示してるバナー広告とかサムネイル
みたいな場合でキャプチャみたいにその外部の画像の表示もそのまま
ローカルに保存できるソフトってありますか?
キャプチャでもいいんですがそれだとリンクが使えないので
- 11 :名無しさん@お腹いっぱい。:2007/02/15(木) 16:38:15 ID:xGyut0QH0
- 普通にできるだろ
- 12 :名無しさん@お腹いっぱい。:2007/02/17(土) 21:22:38 ID:Bvr9jzjZ0
- フレームも含めて全体を取り込む事ができないツールばっかりだな
- 13 :名無しさん@お腹いっぱい。:2007/02/18(日) 22:37:03 ID:B7D3YFzL0
- できるけど
- 14 :名無しさん@お腹いっぱい。:2007/02/20(火) 15:09:45 ID:e2t4e5vo0
- wikiを保存できるソフトって無いかな?
- 15 :名無しさん@お腹いっぱい。:2007/02/20(火) 23:10:34 ID:d0tVJ95D0
- ズームイン
- 16 :名無しさん@お腹いっぱい。:2007/02/22(木) 19:07:07 ID:4/p4xaLh0
- wikiってなんであんな糞なの?
項目名に日本語が含まれてるだけでブラウザでまともに保存すらできないし、
保存できたとしても、リンクのアドレスが文字化けしてめちゃくちゃ。
- 17 :名無しさん@お腹いっぱい。:2007/02/24(土) 19:03:37 ID:mPdOutYY0
- ローカルに保存するなってことだろう
どうしても必要ならGetHTMLWのProxyMode2でいけないこともない
- 18 :名無しさん@お腹いっぱい。:2007/02/25(日) 09:58:28 ID:3/oOlfpO0
- 巡集でインターネットアーカイブを取り込める方法はあるんでしょうか?
- 19 :名無しさん@お腹いっぱい。:2007/02/25(日) 10:19:57 ID:+miNcfmr0
- >>18
あえて言おう、Weboxとw
- 20 :名無しさん@お腹いっぱい。:2007/02/25(日) 14:28:16 ID:3/oOlfpO0
- >>19
ワロタ
Webox以外ないってことだね
あきらめるわ
- 21 :名無しさん@お腹いっぱい。:2007/02/25(日) 23:45:44 ID:eNlSPLFM0
- 巡集うpキタ
ver 1.7.1A (2007/02/25)
*ブログサイトのダウンロード精度を向上。
*User-Agentのランダム設定で落ちるバグを修正。
- 22 :名無しさん@お腹いっぱい。:2007/02/26(月) 12:53:05 ID:CEVJf6Ud0
- >>18
できるけど
- 23 :名無しさん@お腹いっぱい。:2007/02/28(水) 23:14:28 ID:SH0Duyi80
- ウェブオートがないね?相変わらず愛用してるんだけど
- 24 :名無しさん@お腹いっぱい。:2007/03/03(土) 11:40:21 ID:wPSSr1HZ0
- Local Website Archive
ttp://aignes.com/download.htm
どうでそ
- 25 :名無しさん@お腹いっぱい。:2007/03/10(土) 01:51:22 ID:1W/LjUSi0
- 巡集が連邦のTOPでふれられてるな・・・・
- 26 :名無しさん@お腹いっぱい。:2007/03/10(土) 10:13:23 ID:mcy/iIRK0
- 見てきた
巡集作者の株日記って面白いのか
今度ゆっくり見てみよう
- 27 :名無しさん@お腹いっぱい。:2007/03/10(土) 17:03:30 ID:uULWbJDt0
- >>14
firefoxの拡張のscrapbook。
簡単で、まともに保存できるのはこれくらいの気がする。
ただ、時間がかなりかかる(待機時間があるため)。
この待機時間がなければ、もっと軽快なんだけど。
- 28 :名無しさん@お腹いっぱい。:2007/03/11(日) 09:36:46 ID:m++gCE8F0
- 朝鮮人の糞サイトがどうしようもねー。
全てのページをひとつのphpで振り分けやがる上に、ページ表示のバリエーションの条件をURLにぶちこんでいるから全てのパターンを拾いやがる。
同じベージを何百回も落としてる感じ。死ねよ。
- 29 :名無しさん@お腹いっぱい。:2007/03/11(日) 11:11:38 ID:7FjXboN90
- チョンサイトなんか取り込む価値ないだろ
- 30 :名無しさん@お腹いっぱい。:2007/03/12(月) 01:40:40 ID:g6wu4dAt0
- 巡集はそこはかとなくバージョンアップしているけどどこでバージョン上げたらいいか分からないな
未だに勝手知ったる古いバージョンのまま
- 31 :名無しさん@お腹いっぱい。:2007/03/12(月) 09:08:50 ID:totqC4Tr0
- >Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。
これって現バージョンでも有効なん?
- 32 :こまったさん:2007/03/21(水) 23:32:49 ID:SFbcr1In0
- 他の掲示板にも書込みしたのですが返信がないのでこちらにも書かせて
いただきます。パソコンのソフトを探しています。
まずキャプチャソフトで、そのページの画面に表示されている部分だけではなく
上から下まで全てキャプチャ出来るソフトでなおかつjpegなど画像形式での保存ではなくhtml形式で保存が出来るソフト。
もっと具体的な内容なのですが、例えば
・ttp://www.windsor-hotels.co.jp/0601/hotel/main.html
のサイトのキャプチャをしたいのですがどうしても、保存しても真っ白になって表示されたり、
00/100のように表示されてしまいます。
次に、最近多いFlashを使用したWebサイトをFlashも含めて丸ごとサイト自体を保存できるソフト。
・ttp://www.actors.jp/home.htm
のサイトを丸ごとインターネットで接続して閲覧しているときと同じように保存したいのですが、
それもどうしても真っ白になって表示されたりしてしまいます。
を探しています。いずれもFlashのみの保存ではなくWebページ全体での保存が希望です。
フリーソフトでもシェアソフトでも構いません。
今までベクターで検索したり、色々と購入して試してきましたが理想通りに保存できず・・・。
皆さんの知識を教えていただければ助かります。よろしくお願いします。
- 33 :名無しさん@お腹いっぱい。:2007/03/22(木) 01:20:24 ID:6cAWaJRR0
- マルチポスト乙
- 34 :名無しさん@お腹いっぱい。:2007/03/22(木) 03:29:11 ID:mWobe70O0
- >今までベクターで検索したり、色々と購入して試してきましたが
詳しく。
- 35 :こまったさん:2007/03/22(木) 05:05:00 ID:9uATb/Gl0
- >>34
今まで試してきたソフトは沢山ありすぎますが記載させていただきます。
<キャプチャソフト>
HyperShot/Instant Camera/SCap/Super Capture (スーパーキャプチャー)
WebScan/メモメモ+/Atropos/AutoCapture/ClipDesk/CrenaHtml2jpg
EasyCapture 2002/EzCutter/GOLD Japan Snap/IECapture/MiCapture
PHARMACY/ViewletBuilder4 PRO/WebExe/Webよ止まれ 〜EternalWeb〜
WinCapture/WinCatch!!/WinShot/みやきゃっぷ/ワンタッチ全画面キャプチャ
ワンタッチ全画面キャプチャ2/画像キャプチャ「おとりなさい」/画面キャプチャ君
画面ライター
<ダウンロードソフト>
1・2のHTMLダウンロード From CGI/INTERNET POWER DOWNLOAD 3.0
iScrap/ダウンロードNinja 4 for Windows/ダウンロードSpider4
驚速ダウンロードSUPER/紙copi/AutoURL!/CompleteGetter
EasyWebHunter/File Picker/Firefox/FlashGet (JetCar)/GetHTML
GetHTMLW/PageDown/webget/WeBoX/WEB収集ブラウザ/ダウンローダー雨
波乗野郎
になります。よろしくお願いします。
- 36 :名無しさん@お腹いっぱい。:2007/03/22(木) 09:07:08 ID:Vttpzofp0
- 巡集は?
- 37 :名無しさん@お腹いっぱい。:2007/03/22(木) 16:16:32 ID:mWobe70O0
- >>35
ブラウザのファイルメニューから保存を選択すればよろしい。
- 38 :名無しさん@お腹いっぱい。:2007/03/22(木) 20:14:11 ID:NBcFje480
- >>32
safariでダウンロード
http://www.apple.com/jp/safari/
- 39 :名無しさん@お腹いっぱい。:2007/03/23(金) 06:25:27 ID:PBBDt6fb0
- > 巡集は?
それ Plagger で。
- 40 :名無しさん@お腹いっぱい。:2007/03/23(金) 08:47:04 ID:vfc6iUOY0
- めんどくさそう
ttp://www.otsune.com/fswiki/plagger.html
- 41 :こまったさん:2007/03/23(金) 16:19:04 ID:S6LCnbae0
- >>36
>>37
>>38
>>39
>>40
ありがとうございます。
試してみます。
- 42 :名無しさん@お腹いっぱい。:2007/03/25(日) 21:49:09 ID:QJr1/7Rw0
- ダウンロードリストにて出力ファイル、フォルダ等を指定して
ダウンロードできるようなソフトってありますでしょうか?
- 43 :名無しさん@お腹いっぱい。:2007/03/25(日) 22:40:31 ID:0FOGxNpt0
- >>42
ダウンローダー総合スレ
http://pc11.2ch.net/test/read.cgi/software/1162627679/
- 44 :名無しさん@お腹いっぱい。:2007/04/25(水) 20:11:26 ID:5UFLTEQ+0
- GETHTMLWで取得終了しましたが、トップページからリンクされている
別のサイトのページが取得できていませんでした。
別のサイトのページだけ取得するにはどうすればいいでしょうか。
- 45 :名無しさん@お腹いっぱい。:2007/04/25(水) 21:12:34 ID:tskrCebI0
- ttp://jugem.jp
ここのブログを使ったサイトをDLしたいのですが
巡集ではうまく落とすことができず困っています
「ダウンロードするURL」欄にhttp:/******.jugem.jpといれて
ダウンロード開始ボタンを押しているのに
そのページにリンクされてるページがDLできないのです
どなたかブログを丸ごと取り込むコツを教えてください
また巡集以外で簡単に取り込めるソフトがあればおしえてください
- 46 :名無しさん@お腹いっぱい。:2007/04/25(水) 22:06:10 ID:MVpOPi4X0
- ttp://***.jugem.jp/?month=200506
ttp://***.jugem.jp/?month=200507
こんなのがログみたいだから、
連番作成して適当なダウンローダーで落としたらどうかな
サイト構造の維持は厳しいだろうけど
- 47 :名無しさん@お腹いっぱい。:2007/04/25(水) 22:45:13 ID:tskrCebI0
- >>46
やってみます
ありがとうございます
- 48 :名無しさん@お腹いっぱい。:2007/05/03(木) 19:13:33 ID:qXeb/TgM0
- TeleportがSWFリンク辿ってくれたらなあ…
- 49 :名無しさん@お腹いっぱい。:2007/05/11(金) 21:12:46 ID:deAEqze90
- HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
- 50 :名無しさん@お腹いっぱい。:2007/05/11(金) 21:38:41 ID:mMovTTY80
- >>48
遅レスながら同意
- 51 :名無しさん@お腹いっぱい。:2007/05/11(金) 21:44:26 ID:i6HOkKUj0
- NT一本で十分だろ。
- 52 :名無しさん@お腹いっぱい。:2007/05/11(金) 21:44:57 ID:i6HOkKUj0
- スレチすいませんでした。
- 53 :名無しさん@お腹いっぱい。:2007/05/12(土) 16:53:59 ID:t4vHNRDV0
- GETHTMLWが8になったね
- 54 :名無しさん@お腹いっぱい。:2007/05/13(日) 15:18:33 ID:p2YpN1ad0
- SDP Downloaderについての質問です。
このソフトでcmm://〜.wmvというファイルをダウンロードしているんですが、
何度やっても99%のところで止まってしまいます。
どうすれば100%にできるんでしょうか?
- 55 :名無しさん@お腹いっぱい。:2007/05/13(日) 16:26:52 ID:q23NirUR0
- 今の取り込みソフトって、ロールオーバーって取り込めるソフトが大半なの?
それとも全く無いの?
昔、ダウンロードNINJAで1→2→3と試してもことごとく出来なかったから、
もう取り込みはあきらめてしまったのだが。
できるんなら、また取り込みやってみようかなと思うんだが。
- 56 :名無しさん@お腹いっぱい。:2007/05/13(日) 17:16:29 ID:WJenwP960
- >>54
スレタイ嫁
スレ違い
- 57 :名無しさん@お腹いっぱい。:2007/05/14(月) 15:34:51 ID:v+uhQcsb0
- XPSP2
巡集 ver 1.7.1A
巡集のlog開いた時の「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
前使ってた時は、小さかったんですが、新しく入れなおしたら、ちょっと大きくなってました。
ブラウザの文字の大きさの設定は「最大」ですが
前の巡集は、ブラウザの設定で言うと「中」の大きさでした。
後 「2007/05/14 15:11 : webサイト名 : URL」
とかってなってますが、URLの部分を消した状態で保存する事って出来ないでしょうか?
両方ともlogをメモ帳とかで開いて、書き換えるしかないですか?
文字の大きさは、何もしなくても小さかったと思うんですが・・・。
今のlogは↓のようになっています、どなたか教えてください。
長くなってすいません、よろしくお願いします。
<html>
<head>
<META http-equiv="Content-Type" content="text/html; charset=Shift_JIS">
<title>HTML参照</title>
</head>
<body>
2007/05/14 15:11 : <a href="ファイルが保存されているパス">タイトル</a> : <font color=red>URL</font><br>
</body>
</html>
- 58 :名無しさん@お腹いっぱい。:2007/05/14(月) 16:18:41 ID:934RTAGf0
- >「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか?
巡集は関係ないんじゃないか?
使ってるブラウザの設定の問題だろ
>URLの部分を消した状態で保存する事って出来ないでしょうか?
なぜ消したいのかが理解できないが、「URLの部分」だけ消すことはできない
HTML参照(log)そのものを残したくないなら設定→保存→履歴HTMLのチェックを外せばいい
- 59 :57:2007/05/14(月) 16:21:11 ID:v+uhQcsb0
- >>58
いえ、前の巡集のlogには何やら色々コードが書いてあって
それで、小さくなってたと思います。
>>57みたいに、シンプルじゃありませんでした。
ブラウザの設定は変えずに、そのままでも小さかったです。
HTML参照(log)を残したいわけではなく、赤字のURLの部分を消したいんです。
- 60 :名無しさん@お腹いっぱい。:2007/05/14(月) 16:57:50 ID:934RTAGf0
- >>59
俺の巡集logにはそんな記述はないので、小さくなってたと思いますと言われても
ああそうですかとしか答えられない
後半は無理。
>「URLの部分」だけ消すことはできない
って書いただろ?
それでもあえて消したいなら、自分で書きかえるか全部消すしかないってことですよ
- 61 :名無しさん@お腹いっぱい。:2007/05/14(月) 17:05:06 ID:AYp/+A+V0
- 漏れならSpeeeedでスタイルシートを挿入して
URLの部分を消すけどね
それだとログの追加時におかしくなる可能性はあるけども
このソフトは時々行方知れずになったから
探せば文字小な過去ヴァージョンをうpしてるところもあるんじゃないの
- 62 :名無しさん@お腹いっぱい。:2007/05/14(月) 17:09:46 ID:934RTAGf0
- 念のために昔のバージョン1.44とと1.56と最新バージョン1.7.1Aのlogを比べてみたけど
全く同じだったよ
- 63 :名無しさん@お腹いっぱい。:2007/05/14(月) 17:15:39 ID:934RTAGf0
- もしかして1.00とかの超初期バージョンの話なのか?
だったら作者さんに要望を出したほうが早いんじゃないかねえ
- 64 :名無しさん@お腹いっぱい。:2007/05/23(水) 11:48:30 ID:p9K8Da5+0
- rapgetでプロクシリストごと登録してひたすら待ってるんですが
いっこうに落ちてきません。これって自動的にリストにあるプロクシを
切り替えるんですよね?!(´・ω・`)
- 65 :名無しさん@お腹いっぱい。:2007/05/23(水) 11:57:25 ID:Ht77tPJ30
- >>64
ダウンローダー総合スレ
http://pc11.2ch.net/test/read.cgi/software/1162627679/
- 66 :名無しさん@お腹いっぱい。:2007/05/24(木) 18:28:19 ID:P17Tzbhp0
- 巡集の最新版で、下記HPを保存しようとしましたが
画像が保存できませんでした。設定を何も変更していないのがいけないのでしょうか?
ttp://blog.goo.ne.jp/japanarts_mballet/
weBOXでは取り込みできましたが、後からの閲覧の簡単さからすると巡集が嬉しいのですが
どうすれば、画像も取り込めるようになりますか?
- 67 :名無しさん@お腹いっぱい。:2007/05/24(木) 18:56:12 ID:BTZH/2CX0
- プログラムはあなたが望んだように動くのではない
あなたが命じたように動く
- 68 :名無しさん@お腹いっぱい。:2007/05/27(日) 07:01:51 ID:vY46+4wG0
- 晒すなよくず
- 69 :名無しさん@お腹いっぱい。:2007/05/27(日) 09:54:24 ID:84NDCMzr0
- サイト管理人降臨?
- 70 :名無しさん@お腹いっぱい。:2007/06/03(日) 09:43:11 ID:gej6GeXW0
- このCM映像ダウンロードしたいのですが、可能なソフトないでしょうか?
http://www.suntory.co.jp/softdrink/oolongtea/cm/album.html
- 71 :名無しさん@お腹いっぱい。:2007/06/03(日) 09:50:45 ID:jVi4CScL0
- >>70
>>65
- 72 :名無しさん@お腹いっぱい。:2007/06/07(木) 04:27:10 ID:w9jL1zcV0
- ダウンロードソフトって、どうして必要なのか、わからなくて、
とりあえず、無料のソフトをおもいきり、いれてみた。
それで、インターネットをブラウジングしていると、動画とか音楽のサイトを
見ていると、わけのわからないアイコンがいくつも出てくる。
邪魔だから消す目的で、適当にいじると、勝手にダウンロードが始まって、
ビビった。それも、複数のソフトで同じファイルを同時ダウンロードするんだね。
これで、やっとダウンロードソフトの意味がわかった。
急いで、アンイストールしたのはいうまでもない。
つくづく漏れってパソコン暦長いのにアホだと思ったよ。
- 73 :名無しさん@お腹いっぱい。:2007/06/07(木) 12:18:09 ID:+MIU/Wbh0
- 文才があるな
- 74 :名無しさん@お腹いっぱい。:2007/06/08(金) 12:43:31 ID:llkTmUkg0
- >>72
必要な理由
ブラウザの右クリックで保存するよりも速いから
ダウンロード後のファイルの整理をしやすいから
等など色々理由はあるけどここでいう「ダウンロード」は
閉鎖前のサイトをダウンロードしてローカルで閲覧したりとかそーゆー・・・
- 75 :名無しさん@お腹いっぱい。:2007/06/09(土) 22:41:03 ID:HLXTvkEK0
- まるごとダウンロードと書いてあっても、swfの取り込みは簡単でないね。
swf取り込んでも、ページに配置されてなかったりとか、、。
みんなどうしてんの?
- 76 :名無しさん@お腹いっぱい。:2007/06/09(土) 22:46:06 ID:4465SMjJ0
- そんなの糞サイトだと罵る
ダウンロードするしないに限らずね
- 77 :名無しさん@お腹いっぱい。:2007/06/10(日) 00:04:43 ID:LgHJT65n0
- swfは専用のやつを使ったほうが良い
- 78 :名無しさん@お腹いっぱい。:2007/06/10(日) 00:41:01 ID:NtDqBrEQ0
- htmlとswfは関連付けたままで落としたいのだが、、
無理なのかな?
ところで、ここにいるやつらはどんなサイトを落としているの?
- 79 :名無しさん@お腹いっぱい。:2007/06/10(日) 00:56:20 ID:LgHJT65n0
- それなら巡集はどうよ
単純な作りのものなら大抵のものは落とせるはず
- 80 :名無しさん@お腹いっぱい。:2007/06/10(日) 02:41:43 ID:Uw9zFxYD0
- 丸ごと落としたいサイトがめっきり減ったのが
ソフトをあまり詳しく調べなくなった大きな要因だな(苦笑
- 81 :名無しさん@お腹いっぱい。:2007/06/16(土) 09:07:23 ID:KdRb8Kiy0
- 巡集でJUGEMのブログを保存してみたんですが、
http://****.jugem.jp/ では最初のページしか保存されず、カテゴリごとに保存しても
コメントやその他のリンクを開くと「ページを表示できません」になってしまいます。
丸ごと保存するには何か設定が必要なんでしょうか?
- 82 :名無しさん@お腹いっぱい。:2007/06/16(土) 09:50:07 ID:JrRpMphm0
- >>81
最新版の1.7.1Aで公式ブログのhttp://info.jugem.jp/で実験してみた
残りファイル数が1万を超えそうになったから途中までしか試してないし結構適当だけど
・URL欄にhttp://info.jugem.jp/
・取得設定でクエリー(ファイル・HTML両方)にチェック
・URLフィルタの上部「以下の文字列に〜」と「上記のURLに〜」にチェックして
*/info.jugem.jp/*を登録
あとは自分で試行錯誤してください
- 83 :名無しさん@お腹いっぱい。:2007/06/16(土) 09:56:46 ID:JrRpMphm0
- あと、ブログのDLは普通のサイト以上に鯖に負担がかかるので
頻繁にダウンするのはやめたほうがいいかも
- 84 :名無しさん@お腹いっぱい。:2007/06/16(土) 09:59:28 ID:JrRpMphm0
- なんどもすまぬ
×・取得設定でクエリー(ファイル・HTML両方)にチェック
○・取得設定でクエリー(ファイル・HTML両方)にチェックを追加
- 85 :名無しさん@お腹いっぱい。:2007/06/16(土) 10:22:30 ID:KdRb8Kiy0
- >>82-84
ありがとうございます!
今DL中です。時間かかりそうですが、試行錯誤してみます。
- 86 :名無しさん@お腹いっぱい。:2007/06/17(日) 17:01:09 ID:5bFjc7r40
- >>49 :名無しさん@お腹いっぱい。 :2007/05/11(金) 21:12:46 ID:deAEqze90
HPやページの更新があったら自動で落としてくれて、
名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
同じく同意
- 87 :名無しさん@お腹いっぱい。:2007/06/17(日) 19:46:05 ID:cpCk+QSv0
- ない
- 88 :名無しさん@お腹いっぱい。:2007/06/21(木) 00:06:58 ID:pUUtjIyw0
- しかし埋め込み動画や細工のかかった音楽と違って
一気にダウンロードしてやろうと思うサイトがぼこぼこできるわけじゃないというのが
このスレの盛り上がらない原因かも
自分も落とす目的サイトを失ったまま腐らせてるソフトがいくつも…
- 89 :名無しさん@お腹いっぱい。:2007/06/21(木) 07:56:56 ID:RyvgTM1J0
- 前におまえら何落としてるんだ?と聞いた奴がいたけど
俺はネット小説サイトをダウンしてる
小説は読むのに時間がかかるからどうしてもネットに繋ぎっぱなしになるけど
そゆのはなんだか怖いので、一気に落として好きなときに読む
- 90 :名無しさん@お腹いっぱい。:2007/06/21(木) 15:56:26 ID:pIa8QOUC0
- >>89
まさか今時ダイヤルアップなの??
- 91 :名無しさん@お腹いっぱい。:2007/06/21(木) 17:12:58 ID:L7lfwHZK0
- うんにゃ。ブロードバンドですよ
ネットに繋ぎっぱなしが嫌いなだけ
- 92 :名無しさん@お腹いっぱい。:2007/06/21(木) 19:25:55 ID:pIa8QOUC0
- >>91
常時接続なのに、わざわざルータとかモデムの電源切ってる、って事?
- 93 :名無しさん@お腹いっぱい。:2007/06/21(木) 23:01:30 ID:A1Kcs3kZ0
- 30分以上ネットに接続してないと自動で切れるようにルーターの設定してる
どのルーターにもそういう機能あるだろ?
いちいち設定画面を呼び出して切るのなんて面倒なことはしないよ
- 94 :名無しさん@お腹いっぱい。:2007/06/21(木) 23:12:24 ID:pUUtjIyw0
- 常時ファイルの受け渡しをしている我が家のPCルーターでは(ry
- 95 :名無しさん@お腹いっぱい。:2007/06/22(金) 12:58:08 ID:tgIIcn/Y0
- 自動でやるにしても、一々切る意味がサッパリ分からん。
- 96 :名無しさん@お腹いっぱい。:2007/06/22(金) 21:30:54 ID:oY0InkBF0
- Windowsはセキュリティホールの塊だから繋ぎっ放しでなんか進入されたら嫌
かといって他のOSだと仕事にならんし
- 97 :名無しさん@お腹いっぱい。:2007/06/23(土) 09:29:22 ID:rIzu0jgZ0
- animeEDENで使えるダウンロードするソフトとか知りませんか????
フラッシュゲットは使えませんでした。よろしければ教えて下さい。
- 98 :名無しさん@お腹いっぱい。:2007/06/23(土) 15:42:14 ID:cxs0M3OE0
- age
- 99 :名無しさん@お腹いっぱい。:2007/06/23(土) 19:54:44 ID:8uttgXUI0
- weboxみたいな糞じゃなくて
もっとまともなの無い?
- 100 :名無しさん@お腹いっぱい。:2007/06/23(土) 20:18:04 ID:h2a2iVoP0
- >>97
スレチだよ。こっち池
ダウンローダー総合スレ
http://pc11.2ch.net/test/read.cgi/software/1162627679/
- 101 :名無しさん@お腹いっぱい。:2007/06/24(日) 12:48:27 ID:vyIwC8Dh0
- 俺も
有料でもいいから
使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…
- 102 :名無しさん@お腹いっぱい。:2007/06/24(日) 12:51:00 ID:BKpQ2BQw0
- age
- 103 :名無しさん@お腹いっぱい。:2007/06/24(日) 14:04:27 ID:W4JWzNtg0
- > 使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…
define "使い勝手が良く"
define "まともに動く"
- 104 :名無しさん@お腹いっぱい。:2007/06/24(日) 16:19:01 ID:rw6d1fYO0
- フリーはGetHTMLと巡集とWeBoXがあれば事足りる
- 105 :名無しさん@お腹いっぱい。:2007/06/24(日) 23:20:22 ID:5kmu6rvm0
- >>104
シェアは?
- 106 :名無しさん@お腹いっぱい。:2007/06/24(日) 23:29:43 ID:R0y8b7g00
- やっぱ「このサイトのあれはどう落とすんですか?」みたいな音楽や動画を落とす質問も
あまりこないからこのスレ流行らないのかな
- 107 :名無しさん@お腹いっぱい。:2007/06/25(月) 00:45:53 ID:K6zCrBFq0
- >>82
81じゃないですが
その方法で1.71Aで試してもHTMLとして取得できません。
_day=20051015
こんなかんじの拡張子のないファイルがダウンロードされてしまいます。
巡集ではむりなのでしょうか。
- 108 :名無しさん@お腹いっぱい。:2007/06/25(月) 01:16:12 ID:S2S8ZHTX0
- 中身はHTMLじゃないの
- 109 :名無しさん@お腹いっぱい。:2007/06/25(月) 07:34:26 ID:MF8Xgs1n0
- だね
- 110 :名無しさん@お腹いっぱい。:2007/06/25(月) 07:36:46 ID:MF8Xgs1n0
- 送信ミス
>>107
見れないわけじゃないんでしょ?
- 111 :名無しさん@お腹いっぱい。:2007/06/28(木) 17:58:02 ID:BW5JcD+Y0
- 巡集、設定も簡単で良いんだけど、サイトによっては固まる事があるんで
もう少し安定性が欲しいね。
- 112 :名無しさん@お腹いっぱい。:2007/06/28(木) 20:11:42 ID:lM1iLQ6/0
- それは鯖側の問題でわ
- 113 :名無しさん@お腹いっぱい。:2007/06/28(木) 21:00:16 ID:L41fKHeH0
- >>112
いや、WebAutoだと問題無く落ちて来るんでソフト側の問題だと思う
- 114 :名無しさん@お腹いっぱい。:2007/06/28(木) 22:32:12 ID:bcAsTfsR0
- 今までの経験だと、フィルタ設定が邪魔をしていることがあった。
- 115 :111,113:2007/06/28(木) 22:47:44 ID:PaBI4yQU0
- ちなみに固まるのは↓のサイトで、毎回同じページで止まる
フィルタも外してみたり、設定も一通り試してみたんだけどね
http://gamerssquare.kanpaku.jp/
処理が止まる時に表示されてる情報は↓
タイトル: -ゲーム攻略・いきなり許婚!〜姫様のお輿入れ〜(ハ
Referer: http://gamerssquare.kanpaku.jp/kouryaku1.html
推定残りファイル数: 8728
ダウンロード完了数: 1256
- 116 :名無しさん@お腹いっぱい。:2007/06/29(金) 07:15:33 ID:/hYK4rPc0
- 晒してんじゃねーよくず
- 117 :名無しさん@お腹いっぱい。:2007/06/29(金) 07:53:28 ID:ACHmcAQj0
- 最新バージョン使ってる?
- 118 :名無しさん@お腹いっぱい。:2007/06/29(金) 08:38:08 ID:tVmtezGr0
- >>117
1.7.1A使ってる
- 119 :名無しさん@お腹いっぱい。:2007/06/29(金) 12:13:07 ID:reaf/Fky0
- >>166
問題が起きてる箇所を晒さなきゃ、他の環境でも同じ問題が起きるのか、
解決方法があるのか、って事が調べようがないと思うんだが
- 120 :名無しさん@お腹いっぱい。:2007/06/29(金) 17:17:52 ID:5XaCw8jN0
- 試しにデフォ設定で仕掛けてみたけど
No Responseのファイルが多いなあ
負荷がかかると弾くようになってるとか?
- 121 :名無しさん@お腹いっぱい。:2007/06/29(金) 19:01:49 ID:eQCjGEX50
- >>120
検証thx!
やっぱり他の環境でも問題あるみたいですね
しかし、WebAutoだと上手く行くのは何か処理が違うのか…
出来れば巡集1本に絞りたいんだけど、しばらくは2本立てで行くしかないかな
- 122 :名無しさん@お腹いっぱい。:2007/07/07(土) 17:08:31 ID:Tb+R8x9h0
- Flashの多重構造のページは、どうやっても落とせないのかな。
Flashの中に絶対パスが入ってると、どうやってもローカルだけでは無理だよね…
- 123 :名無しさん@お腹いっぱい。:2007/07/09(月) 03:09:31 ID:oVQcI/2j0
- メンテが行われてるやつで、まともな丸ごと取り込みソフトプリーズ
- 124 :名無しさん@お腹いっぱい。:2007/07/09(月) 10:01:37 ID:sjq9Vusg0
- >>123
>>104を使い分け
- 125 :名無しさん@お腹いっぱい。:2007/07/16(月) 15:55:23 ID:dH1p+oBA0
- エロサイトのさ、動画だけを勝手にダウンロードしてくれるソフトある?
- 126 :名無しさん@お腹いっぱい。:2007/07/16(月) 17:23:39 ID:phqg+eth0
- >>125
>>100
- 127 :名無しさん@お腹いっぱい。:2007/07/17(火) 11:18:23 ID:eiV0COaA0
- W-ZERO3 esで50くらいRSSに登録してあるブログの未読記事をサクサク読みたいと思っています。(速度は×2です。)
まず母艦の巡集でDLしたものをmobisyncで同期して読もうと試みたのですが、
巡集でDL時に差分のみDLができない。
更新分だけ読みたいのに全部DL⇒全部同期
その結果、データ同期に非常に時間がかかる
フォルダ階層が複雑で見難い
ということで、上記問題をクリアしたダウンローダーはありますでしょうか。有償でも構いません。
- 128 :名無しさん@お腹いっぱい。:2007/07/17(火) 12:05:51 ID:AMtOc9ci0
- ない
- 129 :名無しさん@お腹いっぱい。:2007/07/17(火) 12:13:20 ID:+o4jIrbj0
- >>123
>>4の中で継続的に更新があるのはもう外国産のばかり
国産ものはかろうじて3ヶ月とか5ヶ月前に1回程度
この手のソフトは更新が止まってることが絶対的な価値じゃないので…
ちなみに
WeBoX
http://webox.sakura.ne.jp/software/webox/
ページ移動してました
- 130 :名無しさん@お腹いっぱい。:2007/07/17(火) 18:25:18 ID:3CDTJq3J0
- WeBoXマンセー
- 131 :名無しさん@お腹いっぱい。:2007/07/20(金) 02:24:59 ID:jNElRSxC0
- 今、まともなのを有料でもいいから作ったら売れるはず
もう3種類ぐらいのツールをあれこれ使い倒してやっと
そこそこダウンロード出来るってのはいやすぎるwww
- 132 :名無しさん@お腹いっぱい。:2007/07/20(金) 02:45:08 ID:A3U8hVXH0
- > 今、まともなのを有料でもいいから作ったら売れるはず
その「まともなの」の要件を定義してくれれば作ってやるぜ。
- 133 :名無しさん@お腹いっぱい。:2007/07/20(金) 10:39:02 ID:jNElRSxC0
- >>132
>>1-131
- 134 :名無しさん@お腹いっぱい。:2007/07/20(金) 11:53:51 ID:IJa0GjXb0
- 巡集がメタタグで巡回拒否するのをとっぱらって
ブログDLの機能を充実させてくれたら最強だと思うんだけどな
作者はまだ株にはまってんの?
- 135 :名無しさん@お腹いっぱい。:2007/07/20(金) 14:39:59 ID:GiA8S2Rz0
- 巡回拒否解除の方法は過去スレを読めば分かる
- 136 :名無しさん@お腹いっぱい。:2007/07/20(金) 17:39:00 ID:D7l7CXE60
- Ctrlキー押しながらってやつ?
METAタグを読まないことによる弊害があるってことだけど
そこんところはどうなの?
- 137 :名無しさん@お腹いっぱい。:2007/07/20(金) 17:42:38 ID:D7l7CXE60
- ごめん見逃してた
バイナリエディタで云々てことか
- 138 :名無しさん@お腹いっぱい。:2007/07/20(金) 21:22:04 ID:A3U8hVXH0
- >>133
意味わかんね
- 139 :名無しさん@お腹いっぱい。:2007/07/20(金) 21:25:37 ID:VkN+zF+r0
- 「まともなの」が具体的には言えないただの口先野郎ってことじゃね?
そういう俺もこの手のソフトは何種類も入れてるがなーw
- 140 :名無しさん@お腹いっぱい。:2007/07/20(金) 21:39:25 ID:A3U8hVXH0
- まあ、定義が出てきたところで釣り宣言する予定ではあった。
- 141 :名無しさん@お腹いっぱい。:2007/07/20(金) 21:43:06 ID:VkN+zF+r0
- 後出しの釣り宣言は寒いっすよ先輩
まあ日本はこの手のソフトが無料ですばらしい物がゴロゴロ転がってるから
使い分けなんなりくらいすればと
- 142 :名無しさん@お腹いっぱい。:2007/07/20(金) 23:57:02 ID:jNElRSxC0
- >>139
>「まともなの」が具体的には言えないただの口先野郎ってことじゃね?
>
>そういう俺もこの手のソフトは何種類も入れてるがなーw
かわいそうにw
- 143 :名無しさん@お腹いっぱい。:2007/07/21(土) 23:39:55 ID:5rR7bwwf0
- Jugem取り込みはどれが適してるの?
巡集は正常に取得できないので抜きで
- 144 :名無しさん@お腹いっぱい。:2007/07/21(土) 23:46:00 ID:eQqNd7ws0
- ブログか…とりあえず取り込みたいページ挙げてみたら?(相手には迷惑だろうけど)
正直取りに行く興味はわかない
- 145 :名無しさん@お腹いっぱい。:2007/07/22(日) 01:40:06 ID:AU6DfnCq0
- >>143
できますが何か?
- 146 :名無しさん@お腹いっぱい。:2007/07/22(日) 02:56:15 ID:KKhFyJY+0
- >>135
前スレなら落ちてるけど
- 147 :名無しさん@お腹いっぱい。:2007/07/22(日) 02:58:27 ID:KKhFyJY+0
- 31 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/03/12(月) 09:08:50 ID:totqC4Tr0
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
>サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。
これって現バージョンでも有効なん?
- 148 :名無しさん@お腹いっぱい。:2007/07/22(日) 08:39:41 ID:AU6DfnCq0
- 606 :名無しさん@お腹いっぱい。 :05/02/25 17:11:33 ID:bGYEGCtk
>>181
Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、
〜
これ回避できなくなっていませんか?
612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M
>>606
Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否
METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6
>>612
ありが屯
>METAタグによる巡回拒否は設定の「METAタグを読まない」で回避
これでMeta読み込まないことによる副作用みたいなのはないですよね?
614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x
当然ある。どこまで影響するかはMETAタグの内容次第。
- 149 :名無しさん@お腹いっぱい。:2007/07/22(日) 09:30:24 ID:b5dtrcSy0
- ググればキャッシュで読める
- 150 :名無しさん@お腹いっぱい。:2007/07/30(月) 22:40:42 ID:EerNmg9U0
- β1339
- 151 :名無しさん@お腹いっぱい。:2007/07/30(月) 22:52:02 ID:ouuQO56l0
- どこっすか?
- 152 :名無しさん@お腹いっぱい。:2007/08/06(月) 00:41:28 ID:j9RPW2Jd0
- ここは>>125みたいなソフトの話ではないの?
ページを丸ごと保存する場合だけの話?
- 153 :名無しさん@お腹いっぱい。:2007/08/06(月) 01:00:18 ID:jhVJeDzL0
- オカンに「エロ動画とかエロ画像を根こそぎDLしといて」って頼め。
- 154 :名無しさん@お腹いっぱい。:2007/08/06(月) 01:42:36 ID:uM1LJPuz0
- >>152
スレ違い
YES
- 155 :名無しさん@お腹いっぱい。:2007/08/06(月) 05:49:52 ID:cR7sHFPq0
- しかし、ダウンロードソフトって、いつからこんなに派手な行動をするようになったの?
ダウンロードできるものの上にポインターをおくと、
アイコンが立ち上がり、それをクリックすると、ダウンロードが始まるんだよね。
YouTubeなんかにはいって動画を見ていると、その誘うようなアイコンが
わずらわしくなってくる。ちなみにインストールしたとき、確かスタートアップに
いれるかどうか選択画面があったけど、スタートアップにはいれていない。
それなのに、常駐しているみたいに勝手にたちあがる。
ダウンオタにはたまらなく魅力的なソフトだろ。
ちなみにぼくがいま使っているのはorbitだけど、ほかのもみんな同じ機能を持っていると思うよ。
- 156 :名無しさん@お腹いっぱい。:2007/08/06(月) 08:54:05 ID:3ve9QpmD0
- >>155
>>100かhttp://pc11.2ch.net/test/read.cgi/software/1165934465/でやれ
- 157 :名無しさん@お腹いっぱい。:2007/08/06(月) 12:02:10 ID:ZR1S+mu70
- >>72
>>155
- 158 :名無しさん@お腹いっぱい。:2007/08/06(月) 17:04:09 ID:qUygctRD0
- phpで書かれているサイトで気付いたんだけど、
phpそのものはルートディレクトリに置かれているように見えるけど、
画像の相対参照を見たら、実はもう1個下の階層で動いていた
scriptで動的にリンク先を指定してみたりとか、落としにくいサイトが増えてきたなあ
- 159 :名無しさん@お腹いっぱい。:2007/08/06(月) 18:25:43 ID:UW4kC6EQ0
- >>144
とりあえずこれでおねがい
http://kaela.jugem.jp/
>>145
方法を教えてください。
- 160 :名無しさん@お腹いっぱい。:2007/08/06(月) 21:01:05 ID:iz1Y6S0t0
- >>159
>>82
- 161 :名無しさん@お腹いっぱい。:2007/08/06(月) 22:09:06 ID:UW4kC6EQ0
- >>160
>>107と同じ
- 162 :名無しさん@お腹いっぱい。:2007/08/06(月) 22:21:28 ID:iz1Y6S0t0
- >>161
>>108
- 163 :名無しさん@お腹いっぱい。:2007/08/07(火) 20:40:19 ID:zDYP6yL/0
- 巡集のHP消えた?
- 164 :名無しさん@お腹いっぱい。:2007/08/07(火) 21:20:31 ID:rmt4tXIP0
- 無くなってるね
移転の告知とかも見た覚えがないけど
- 165 :名無しさん@お腹いっぱい。:2007/08/07(火) 22:53:48 ID:8FY65nq50
- 株日記も消えてる・・・。
全然、金増えないから株辞める、といいつつ
何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。
- 166 :名無しさん@お腹いっぱい。:2007/08/07(火) 23:01:24 ID:Rnkdrzsb0
- うーん
これは本気で夜逃げでもしたかねえ
心配だ
- 167 :名無しさん@お腹いっぱい。:2007/08/15(水) 21:42:41 ID:xF/zK2Ra0
- >>163
ヘルプのページのミラーってあるの?
親にあるHPの保存を頼まれて、初めてこのソフトを落としてみたらこの状態… orz
- 168 :名無しさん@お腹いっぱい。:2007/08/15(水) 22:32:55 ID:HzWu+63s0
- 巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず
- 169 :名無しさん@お腹いっぱい。:2007/08/15(水) 22:43:51 ID:k3HM8b2B0
- サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。
- 170 :名無しさん@お腹いっぱい。:2007/08/25(土) 07:27:47 ID:wJoGTH6/0
- 10日書き込み無し。
巡集も消えたまま。
- 171 :名無しさん@お腹いっぱい。:2007/08/25(土) 14:25:43 ID:3h2qNoKX0
- まだだ・・・っ!まだ終わら(ry
- 172 :名無しさん@お腹いっぱい。:2007/08/27(月) 01:53:20 ID:YfjxAlx50
- 寿限無取り込みできないからなぁ巡集は。
- 173 :名無しさん@お腹いっぱい。:2007/08/27(月) 07:47:02 ID:pl/iWHG90
- できると何度言えば
- 174 :名無しさん@お腹いっぱい。:2007/09/01(土) 16:53:11 ID:UEbpedFs0
- jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか
- 175 :名無しさん@お腹いっぱい。:2007/09/15(土) 17:34:27 ID:shGMdTNK0
- 巡集みたいにJavascriptを辿ってくれるソフトはないものか
- 176 :名無しさん@お腹いっぱい。:2007/09/16(日) 02:04:46 ID:dftJqUuf0
- >>175
_gu
Web Auto(シェアウェア)
- 177 :名無しさん@お腹いっぱい。:2007/09/17(月) 11:06:49 ID:wfwucYIg0
- あるのか!サンクス
- 178 :名無しさん@お腹いっぱい。:2007/09/17(月) 11:22:10 ID:wfwucYIg0
- よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか
- 179 :名無しさん@お腹いっぱい。:2007/10/03(水) 21:43:58 ID:pWzSNQy50
- 具体的に
http://news.livedoor.com/article/detail/3312533/
このページとそこから下の各画像ページを落としたいのですが、
可能なソフトはありますか?
- 180 :名無しさん@お腹いっぱい。:2007/10/06(土) 10:56:58 ID:2ZPpgW+10
- このスレこんなに人がいないんだ・・・
- 181 :名無しさん@お腹いっぱい。:2007/10/06(土) 16:02:36 ID:BjxdSh550
- しょこタン可愛いな。
- 182 :名無しさん@お腹いっぱい。:2007/10/08(月) 20:24:11 ID:LFWOR3Ya0
- >>179
画像だけならこれとかでいけるけど
http://www.freewarefiles.com/program_5_173_35481.html
- 183 :名無しさん@お腹いっぱい。:2007/10/09(火) 22:54:00 ID:uQB0ZqdW0
- Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
http://www.g-area.org/pgmain.htm
よろしくお願いします。
- 184 :名無しさん@お腹いっぱい。:2007/10/10(水) 08:28:33 ID:7BTa/w3d0
- >>183
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです
Irvineのことは専用スレへ
http://pc11.2ch.net/test/read.cgi/win/1186411278/
Irvine以外のダウンローダーを探しているならこちらへ
http://pc11.2ch.net/test/read.cgi/software/1190549945/
- 185 :名無しさん@お腹いっぱい。:2007/10/18(木) 23:24:07 ID:7tXtR67v0
- 巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです
- 186 :名無しさん@お腹いっぱい。:2007/10/18(木) 23:36:32 ID:HXM7GKrN0
- default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか
- 187 :185:2007/10/19(金) 09:27:44 ID:io5KB4Vk0
- できました!
試しに風呂敷確認君で巡集を使ってみたら
chk_proxy3.cgiに書いてあるUserAgentがブラウザと同じになってました
ありがとうございました>>186
- 188 :185:2007/10/19(金) 09:29:49 ID:io5KB4Vk0
- どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに
- 189 :名無しさん@お腹いっぱい。:2007/10/25(木) 08:06:59 ID:X9NjLM0s0
- ttp://fantasticland.web.infoseek.co.jp/index.html
上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?
- 190 :名無しさん@お腹いっぱい。:2007/10/25(木) 08:25:35 ID:X9NjLM0s0
- 初期設定保存→初期設定で保存
- 191 :名無しさん@お腹いっぱい。:2007/10/25(木) 20:52:21 ID:MXXrESKM0
- 落とせないのはたぶん↓これのせい
>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。
取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる
- 192 :名無しさん@お腹いっぱい。:2007/10/25(木) 22:22:35 ID:X9NjLM0s0
- >>191
ほんとだ、できました
どうもありがとうございます
- 193 :名無しさん@お腹いっぱい。:2007/11/20(火) 19:31:24 ID:UO8+XWOH0
- ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます
- 194 :名無しさん@お腹いっぱい。:2007/11/20(火) 20:35:52 ID:+BL7nhGN0
- iriaかIrvine
- 195 :名無しさん@お腹いっぱい。:2007/11/21(水) 18:58:15 ID:TdDk4QuK0
- すいません
不足してました
ページとしての体裁を保ってです
これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
- 196 :名無しさん@お腹いっぱい。:2007/11/21(水) 19:52:04 ID:yPEtRi6u0
- FWがブロックしてんじゃないの?
- 197 :名無しさん@お腹いっぱい。:2007/12/06(木) 21:50:51 ID:R8U55YGP0
- ttp://www.rolfinger.com/
みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので
- 198 :名無しさん@お腹いっぱい。:2007/12/19(水) 03:03:46 ID:9yuHwmFr0
- gethtml (コマンドラインの方)で
http://tv.yahoo.co.jp/radio/tokyo/2007121924.html
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?
- 199 :名無しさん@お腹いっぱい。:2007/12/19(水) 08:26:38 ID:rzYFr4Wu0
- こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。
経験的にGetHTMLWはチャンクのデコード周りにバグがある。
チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。
HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。
- 200 :名無しさん@お腹いっぱい。:2007/12/19(水) 08:36:06 ID:rzYFr4Wu0
- うはw
試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw
HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。
- 201 :名無しさん@お腹いっぱい。:2007/12/19(水) 11:15:42 ID:9yuHwmFr0
- すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー
- 202 :名無しさん@お腹いっぱい。:2007/12/25(火) 11:11:24 ID:GbgG+v1L0
- 久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
- 203 :名無しさん@お腹いっぱい。:2007/12/25(火) 11:35:48 ID:PwgleQS90
- 巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?
ttp://www.stronger.jp/stronger_weblogs/diary_00/
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる
- 204 :名無しさん@お腹いっぱい。:2007/12/29(土) 07:39:53 ID:qxdx6dP80
- 83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。
このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。
どなたか良いアドバイスをお願いします。
84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
ttp://downloader.sakura.ne.jp/dlame.htm
85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました
こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?
- 205 :名無しさん@お腹いっぱい。:2007/12/30(日) 23:06:29 ID:qlo4Nzf+0
- はい
- 206 :名無しさん@お腹いっぱい。:2008/01/13(日) 17:24:55 ID:IiRpxgag0
- 雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい
- 207 :名無しさん@お腹いっぱい。:2008/01/16(水) 15:18:18 ID:ZuxFg1x40
- 巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?
クエリー
データベースからデータを取り出すためのフォーマット
と意味を調べたのですが、いまいちピンと来ません
- 208 :名無しさん@お腹いっぱい。:2008/01/16(水) 16:23:20 ID:OFGCoOwC0
- &や=で区切られてるURLをDLするんじゃないかと
- 209 :名無しさん@お腹いっぱい。:2008/01/16(水) 16:23:53 ID:OFGCoOwC0
- ?とか
- 210 :名無しさん@お腹いっぱい。:2008/01/18(金) 16:46:29 ID:IYjarUeY0
- HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?
- 211 :名無しさん@お腹いっぱい。:2008/01/18(金) 17:33:47 ID:A5toxlAf0
- 巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。
1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加
↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
- 212 :名無しさん@お腹いっぱい。:2008/01/18(金) 18:31:47 ID:gw9zl8ah0
- URLを晒せば誰かが解析してくれるよ
- 213 :211:2008/01/18(金) 18:54:52 ID:tCWJ6AtX0
- トップ http://www.din.or.jp/~osayo/
呼び出し http://miko3.jp/
CGI http://cgi.din.or.jp/~osayo/
サイトメニューは画面下部。
1.「かすたま」の中のファイルも一緒にダウンロードしたい。
http://cgi.din.or.jp/~osayo/cgi/dl/dlcount.cgi?f=20_1 等で呼ばれるファイル
2.「日記」のデータは読み込みたくない。
http://cgi.din.or.jp/~osayo/cgi/diary/diary.cgi
と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。
- 214 :名無しさん@お腹いっぱい。:2008/01/18(金) 22:09:06 ID:gYZKpt5G0
- HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか
- 215 :名無しさん@お腹いっぱい。:2008/01/24(木) 06:32:37 ID:JD3lJ93I0
- 巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン
- 216 :名無しさん@お腹いっぱい。:2008/01/24(木) 07:32:08 ID:oN1Lok+h0
- 株にはまりすぎて開発してる暇がなくなったんじゃ
- 217 :名無しさん@お腹いっぱい。:2008/01/25(金) 06:37:21 ID:NApTe0zp0
- ベクターの作者ページへのリンクが
- 218 :名無しさん@お腹いっぱい。:2008/01/25(金) 07:44:23 ID:Uo5ZCYg70
- どうした?
- 219 :名無しさん@お腹いっぱい。:2008/01/25(金) 17:45:12 ID:pOdyTSFw0
- http://bb.goo.ne.jp/special/yozemitv/special/center_kaisetsu/index.html
すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?
- 220 :名無しさん@お腹いっぱい。:2008/01/25(金) 22:06:45 ID:VQ1m2IF90
- >>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
http://pc11.2ch.net/test/read.cgi/software/1199195209/
- 221 :名無しさん@お腹いっぱい。:2008/01/25(金) 22:12:43 ID:xmvyWrR/0
- >>219
http://www.google.co.jp/search?hl=ja&q=%E3%82%B9%E3%83%88%E3%83%AA%E3%83%BC%E3%83%9F%E3%83%B3%E3%82%B0%E4%BF%9D%E5%AD%98&lr=
- 222 :名無しさん@お腹いっぱい。:2008/01/26(土) 19:25:30 ID:h3xkz2eJ0
- 巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。
- 223 :名無しさん@お腹いっぱい。:2008/01/26(土) 20:07:25 ID:BB78zvk50
- >2階層以上取り込めません
リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない
- 224 :名無しさん@お腹いっぱい。:2008/01/26(土) 20:50:47 ID:h3xkz2eJ0
- レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
ttp://web.archive.org/web/20050131004541/http://hp.vector.co.jp/authors/VA037488/junshu/index2.html
- 225 :名無しさん@お腹いっぱい。:2008/01/26(土) 22:17:45 ID:Vw9+2j2y0
- >>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
http://hp.vector.co.jp/authors/ではじまるURLしかないじゃないw
- 226 :名無しさん@お腹いっぱい。:2008/01/26(土) 22:20:24 ID:Vw9+2j2y0
- 続き
http://web.archive.org/web/からはじまるアドレスでないと落とせないよ
- 227 :名無しさん@お腹いっぱい。:2008/01/26(土) 23:17:56 ID:Nych28nF0
- 219です。
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
- 228 :名無しさん@お腹いっぱい。:2008/01/26(土) 23:34:13 ID:Vw9+2j2y0
- >>227
>>220に誘導されてるだろ
向こうのスレで聞いておいで
- 229 :名無しさん@お腹いっぱい。:2008/01/27(日) 04:41:59 ID:2s4iBkil0
- gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
- 230 :名無しさん@お腹いっぱい。:2008/01/27(日) 08:36:39 ID:Xxz+W6Ae0
- 初心者にお勧めの物ってどれになりますか?
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
- 231 :名無しさん@お腹いっぱい。:2008/01/27(日) 10:02:21 ID:2s4iBkil0
- 初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
- 232 :名無しさん@お腹いっぱい。:2008/01/27(日) 10:20:40 ID:suXR9EeP0
- 準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが
- 233 :名無しさん@お腹いっぱい。:2008/01/27(日) 10:54:18 ID:Xxz+W6Ae0
- >>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
- 234 :名無しさん@お腹いっぱい。:2008/01/27(日) 11:58:42 ID:2s4iBkil0
- gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
- 235 :名無しさん@お腹いっぱい。:2008/01/27(日) 12:50:55 ID:Xxz+W6Ae0
- >>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。
- 236 :名無しさん@お腹いっぱい。:2008/01/27(日) 13:39:28 ID:s6MxY/jc0
- >>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
- 237 :名無しさん@お腹いっぱい。:2008/01/27(日) 19:04:30 ID:2s4iBkil0
- >>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。
- 238 :名無しさん@お腹いっぱい。:2008/01/30(水) 01:36:11 ID:NOmqzNMO0
- 巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
- 239 :名無しさん@お腹いっぱい。:2008/02/08(金) 00:48:18 ID:LyUhp1gB0
- http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
- 240 :名無しさん@お腹いっぱい。:2008/02/11(月) 20:21:44 ID:dYHnvlVd0
- ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
- 241 :名無しさん@お腹いっぱい。:2008/02/12(火) 01:13:13 ID:jIBSXkqy0
- Super Capture ってなくなっちゃったんですか?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
- 242 :名無しさん@お腹いっぱい。:2008/02/12(火) 15:44:15 ID:pEdZWnO30
- >>241
ググレカレー。
落とせるところがちらほらあるジャマイカ。
- 243 :名無しさん@お腹いっぱい。:2008/02/12(火) 21:02:05 ID:Ftzz/E6Q0
- http://www.gymfan.de/gym_pic.html
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
- 244 :名無しさん@お腹いっぱい。:2008/02/12(火) 22:45:39 ID:S2Vi01b30
- 取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
- 245 :名無しさん@お腹いっぱい。:2008/02/12(火) 23:31:39 ID:v9bgFmos0
- >>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
- 246 :名無しさん@お腹いっぱい。:2008/02/12(火) 23:48:23 ID:jIBSXkqy0
- >>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
- 247 :名無しさん@お腹いっぱい。:2008/02/13(水) 01:43:15 ID:95oy4e+k0
- web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
- 248 :名無しさん@お腹いっぱい。:2008/02/13(水) 01:49:38 ID:mFV8vQoX0
- おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
- 249 :名無しさん@お腹いっぱい。:2008/02/13(水) 01:53:22 ID:zIVsZC2A0
- >>246
http://web.archive.org/web/*/http://www.inisia.co.jp/
1分であったぞ
- 250 :243:2008/02/13(水) 13:10:32 ID:E8CaTYjJ0
- >>245
サンキュ。設定いじったら巡集でできた。
- 251 :名無しさん@お腹いっぱい。:2008/03/02(日) 15:32:26 ID:SlT8oVxO0
-
- 252 :名無しさん@お腹いっぱい。:2008/03/02(日) 22:55:44 ID:XBPQmEY90
- 以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
http://music.lionsgate.com/rambo/
- 253 :名無しさん@お腹いっぱい。:2008/03/04(火) 23:58:34 ID:8O1P5E4A0
- irvineでも巡集でもURLを直接指定すればええやん
- 254 :名無しさん@お腹いっぱい。:2008/03/18(火) 21:59:21 ID:ZzxB85Z00
- すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
- 255 :名無しさん@お腹いっぱい。:2008/03/19(水) 12:43:47 ID:YKorTSpT0
- >>254
んなわけない
- 256 :名無しさん@お腹いっぱい。:2008/03/20(木) 01:58:21 ID:m223Zsx40
- ありがとうございます!
- 257 :名無しさん@お腹いっぱい。:2008/03/24(月) 04:25:21 ID:w4eXPHNQ0
- サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
- 258 :名無しさん@お腹いっぱい。:2008/04/11(金) 08:00:28 ID:JS6+SD8u0
- そろそろ答えてください
- 259 :名無しさん@お腹いっぱい。:2008/04/13(日) 20:04:32 ID:oGL9AkZ60
- まだだ、まだ答えんよ
- 260 :名無しさん@お腹いっぱい。:2008/04/14(月) 19:23:15 ID:v2R7+9CM0
- 雨は使ったことない(´・ω・`)
- 261 :名無しさん@お腹いっぱい。:2008/04/18(金) 04:55:05 ID:UhKCBHwm0
- 巡集の設定で聞きたいんですが
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
- 262 :名無しさん@お腹いっぱい。:2008/04/18(金) 05:11:53 ID:Ye4EJlp40
- >>261
フィルタを使えばいけます
- 263 :名無しさん@お腹いっぱい。:2008/04/18(金) 14:35:41 ID:UhKCBHwm0
- その設定をおねがいします><
- 264 :名無しさん@お腹いっぱい。:2008/04/22(火) 07:20:07 ID:ZhYRKd640
- 普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
- 265 :名無しさん@お腹いっぱい。:2008/04/26(土) 12:43:45 ID:bWElsVFw0
- 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
- 266 :名無しさん@お腹いっぱい。:2008/04/26(土) 14:34:15 ID:xuojH8LA0
- ダイアログに出ているタイトル
- 267 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:11:02 ID:t9WSIx9k0
- 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
- 268 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:11:26 ID:t9WSIx9k0
- 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
- 269 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:19:45 ID:cHvd4SHv0
- あるわけねーだろ
- 270 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:23:28 ID:Mg38eEgV0
- メモ帳
- 271 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:34:59 ID:t9WSIx9k0
- そうですか・・・残念だぴょん・・・・・・
- 272 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:01:15 ID:6J6AlWWJ0
- >>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
- 273 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:27:05 ID:t9WSIx9k0
- >>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
- 274 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:29:51 ID:GHBwk8a80
- 端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う
- 275 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:36:07 ID:Mg38eEgV0
- >>273
設定でスレッドタイトル=ファイル名は可能
- 276 :名無しさん@お腹いっぱい。:2008/05/06(火) 04:34:03 ID:pWIAuxdS0
- >>273
FirefoxだったらScrapBookをすすめるんだがな。
- 277 :名無しさん@お腹いっぱい。:2008/05/06(火) 19:54:31 ID:SBxlMPDL0
- 最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
- 278 :名無しさん@お腹いっぱい。:2008/05/10(土) 04:00:05 ID:g0wuH1J20
- 日本語でおk
- 279 :名無しさん@お腹いっぱい。:2008/05/11(日) 17:13:40 ID:5I6LyxnA0
- website explorer使ってる人俺以外にもいるのかな
- 280 :名無しさん@お腹いっぱい。:2008/05/11(日) 20:39:05 ID:OLc5kE2C0
- 使ってるけど丸ごと取り込みには使わないな
- 281 :名無しさん@お腹いっぱい。:2008/05/12(月) 10:37:10 ID:9PCKZ1Jr0
- Firefox使いの俺はFownThemAll!とScrapBookだ。
- 282 :名無しさん@お腹いっぱい。:2008/05/12(月) 22:24:48 ID:tJ0QtoQm0
- お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
- 283 :名無しさん@お腹いっぱい。:2008/05/12(月) 23:42:25 ID:zqRUnBa00
- ダウンロードソフトはダウンロード板の管轄じゃないの?
- 284 :名無しさん@お腹いっぱい。:2008/05/13(火) 02:25:08 ID:ErVJOT7a0
- こっちじゃね?
ダウンローダー総合スレ Part2
http://pc11.2ch.net/test/read.cgi/software/1190549945/
- 285 :282:2008/05/13(火) 06:41:48 ID:/touQVIB0
- スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
- 286 :名無しさん@お腹いっぱい。:2008/05/27(火) 10:00:24 ID:qJm5C59n0
- gzipで送信されるページに対応した取り込みソフトはございませんか?
- 287 :名無しさん@お腹いっぱい。:2008/05/30(金) 01:20:05 ID:obDTDq910
- 最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
- 288 :名無しさん@お腹いっぱい。:2008/06/03(火) 01:59:41 ID:V0GOfPnQ0
- 巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
- 289 :名無しさん@お腹いっぱい。:2008/06/03(火) 07:40:12 ID:d5RR0Fde0
- >>288
No ResponseになるURLをフィルタさせる
もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある
- 290 :名無しさん@お腹いっぱい。:2008/06/03(火) 20:59:37 ID:V0GOfPnQ0
- >>289
こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・
保存先のブログはシーサーです。
- 291 :名無しさん@お腹いっぱい。:2008/06/16(月) 23:48:15 ID:4NFpHfXZ0
- あげ
- 292 :名無しさん@お腹いっぱい。:2008/06/17(火) 07:58:10 ID:iH/5XAaL0
- なにか対象の指定の仕方に問題があるような気がする。
- 293 :名無しさん@お腹いっぱい。:2008/07/29(火) 03:34:12 ID:NXDRQEUV0
- ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?
- 294 :名無しさん@お腹いっぱい。:2008/08/14(木) 12:22:21 ID:z6Dy8mh40
- weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
- 295 :名無しさん@お腹いっぱい。:2008/08/22(金) 18:44:21 ID:jiDXkNV10
- Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?
UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
- 296 :名無しさん@お腹いっぱい。:2008/08/25(月) 13:39:00 ID:6nouZRD10
- 2chの女神板に貼り付いてるキモオタ共歓喜だな
>
> ありえな〜ぃ! 女神板から画像・動画を自動でまるごとダウンロード
> http://www.savethevenus.com/
>
- 297 :名無しさん@お腹いっぱい。:2008/08/31(日) 01:18:45 ID:ISN52Ea80
- 女神板は2chじゃないから
- 298 :名無しさん@お腹いっぱい。:2008/09/10(水) 10:20:54 ID:TJ6Ap/Sl0
- ここの移転先教えてくれ
http://sdn255.web.fc2.com/
- 299 :HrSPwiYUsMDh:2008/09/10(水) 10:26:13 ID:ddMYkNpg0
- g7z0zX <a href="http://baqkzgurctep.com/">baqkzgurctep</a>, [url=http://knccjehvsqoe.com/]knccjehvsqoe[/url], [link=http://fyoddmbvukja.com/]fyoddmbvukja[/link], http://kfeaukherzmc.com/
- 300 :名無しさん@お腹いっぱい。:2008/09/10(水) 10:53:49 ID:TJ6Ap/Sl0
- 準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。
- 301 :名無しさん@お腹いっぱい。:2008/09/10(水) 11:19:00 ID:iOGDU/hx0
- 他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である
- 302 :名無しさん@お腹いっぱい。:2008/09/10(水) 12:06:11 ID:TJ6Ap/Sl0
- ちょw
たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
- 303 :London:2008/09/10(水) 12:13:50 ID:iwCGOnB80
- wAetOc <a href="http://jphcmeellktk.com/">jphcmeellktk</a>, [url=http://auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=http://unnngecegnmn.com/]unnngecegnmn[/link], http://hxtuikvjgkcq.com/
- 304 :名無しさん@お腹いっぱい。:2008/09/10(水) 12:18:18 ID:Cga7s0C10
- ファイル名を変えたらリンクが正しく動作しなくなるだろ…
- 305 :名無しさん@お腹いっぱい。:2008/09/10(水) 16:40:55 ID:aLDvX6Aj0
- 巡集の作者、もしかして株で死んじゃったとか・・・?
- 306 :名無しさん@お腹いっぱい。:2008/09/10(水) 23:10:10 ID:TJ6Ap/Sl0
- 不吉なこと言うなダニよ
ソース公開して欲しい
- 307 :名無しさん@お腹いっぱい。:2008/09/10(水) 23:35:48 ID:S8J67L6Y0
- 巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな
後者に金を払う気があるかは本人次第
- 308 :名無しさん@お腹いっぱい。:2008/09/13(土) 15:46:14 ID:Dn+RZDfP0
- ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし
- 309 :名無しさん@お腹いっぱい。:2008/09/14(日) 20:11:32 ID:ukWyxLCq0
- 禁止URLとかの機能使えばいいじゃん。
- 310 :名無しさん@お腹いっぱい。:2008/09/23(火) 18:50:45 ID:twI/75ox0
- 結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
- 311 :名無しさん@お腹いっぱい。:2008/09/24(水) 01:46:37 ID:hKMSKtdw0
- >>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。
一、か二かどっち?
二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;
↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。
- 312 :名無しさん@お腹いっぱい。:2008/09/24(水) 13:41:28 ID:1PhPO/s90
- >273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
- 313 :名無しさん@お腹いっぱい。:2008/10/06(月) 15:35:55 ID:eO1CMKz50
- こんなソフトありませんか?スレから来ました。
fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。
現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?
コマンドラインで使う類のソフトでもかまいません。
- 314 :313:2008/10/06(月) 16:31:57 ID:eO1CMKz50
- Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
http://www.oshiete-kun.net/archives/2008/02/getleft.html
外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
- 315 :313:2008/10/06(月) 18:17:34 ID:eO1CMKz50
- wgetで試行錯誤してみたらうまくいきました。
wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)
urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
puts file
urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq
以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/
--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
- 316 :313:2008/10/06(月) 18:21:17 ID:eO1CMKz50
- wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。
- 317 :名無しさん@お腹いっぱい。:2008/10/07(火) 00:37:00 ID:k78/uLlJ0
- >>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。
- 318 :313:2008/10/07(火) 05:40:38 ID:hu35XLEh0
- >>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。
Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm
wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB
この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
- 319 :名無しさん@お腹いっぱい。:2008/10/07(火) 06:33:16 ID:k78/uLlJ0
- >>318
ありがとうございます!これでやってみます。
- 320 :名無しさん@お腹いっぱい。:2008/10/07(火) 07:56:16 ID:pjeOFoUzO
- パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
- 321 :名無しさん@お腹いっぱい。:2008/10/09(木) 19:17:17 ID:rJyyGwzD0
- 巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?
- 322 :名無しさん@お腹いっぱい。:2008/10/11(土) 23:38:49 ID:UlAef+iX0
- >>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。
- 323 :名無しさん@お腹いっぱい。:2008/10/14(火) 05:43:24 ID:CWdTo3bh0
- ttp://users.ugent.be/~bpuype/wget/
- 324 :名無しさん@お腹いっぱい。:2008/10/18(土) 09:14:27 ID:NA8ZY32U0
- マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も
ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
- 325 :名無しさん@お腹いっぱい。:2008/10/20(月) 21:48:39 ID:SV8NrUaK0
- 苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。
1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。
2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
- 326 :名無しさん@お腹いっぱい。:2008/10/20(月) 21:49:38 ID:SV8NrUaK0
- 3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz
4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。
どうでもいいですが、DLしたサイトは東進 過去問データベースです。
- 327 :名無しさん@お腹いっぱい。:2008/10/20(月) 23:16:00 ID:vXNKs2Pn0
- 報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね
- 328 :名無しさん@お腹いっぱい。:2008/10/21(火) 06:16:41 ID:r9pcwQQ+0
- 追記
Teleport Proは65530ファイルでDLを打ち切る様子。
- 329 :名無しさん@お腹いっぱい。:2008/10/22(水) 14:47:13 ID:Uty5mEif0
- FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・
- 330 :名無しさん@お腹いっぱい。:2008/10/26(日) 22:56:41 ID:Z0qQpGL90
- >>328
使えにゃい。
>>329 スレ違い 紙とか。
- 331 :名無しさん@お腹いっぱい。:2008/11/08(土) 09:57:14 ID:HMLV6FJZ0
- サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません
- 332 :名無しさん@お腹いっぱい。:2008/11/09(日) 05:43:33 ID:r9fZofmi0
- Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?
- 333 :名無しさん@お腹いっぱい。:2008/11/10(月) 12:34:07 ID:RJUgrUkx0
- うん
- 334 :名無しさん@お腹いっぱい。:2008/11/12(水) 09:40:33 ID:199gHslN0
- dlkey突破できる奴が有れば…
- 335 :名無しさん@お腹いっぱい。:2008/11/15(土) 02:12:07 ID:0sXE2VgW0
- JustDiver 2.0
- 336 :名無しさん@お腹いっぱい。:2008/11/17(月) 23:17:57 ID:bYSAyiWi0
- HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。
デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?
- 337 :名無しさん@お腹いっぱい。:2008/11/26(水) 22:46:57 ID:AvoPmSlt0
- http://www.doblog.com/weblog/myblog/31550
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz
- 338 :337:2008/11/27(木) 07:07:22 ID:1gPOJKDS0
- 巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。
http://www.doblog.com/weblog/myblog/31550*
http://img.doblog.com/32000/u31550/*
残りはコメントです。 引き続きよろしくお願いします。 orz
- 339 :名無しさん@お腹いっぱい。:2008/11/27(木) 10:21:47 ID:o5f/E9xS0
- 「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。
予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。
沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。
- 340 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:06:37 ID:qDOzkieX0
- もうこういうソフトは需要がないかねえ…
- 341 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:58:34 ID:P2sFxOkY0
- Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな
- 342 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:59:18 ID:qDOzkieX0
- 動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない
- 343 :名無しさん@お腹いっぱい。:2008/12/30(火) 22:10:50 ID:fX4eASw70
- @wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
- 344 :名無しさん@お腹いっぱい。:2008/12/31(水) 09:18:41 ID:rscijB3A0
- 取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る
- 345 :名無しさん@お腹いっぱい。:2009/01/02(金) 01:44:45 ID:OLqz4XAA0
- FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。
- 346 :名無しさん@お腹いっぱい。:2009/01/03(土) 23:05:19 ID:PUJY1CSF0
- Gethtmlについての質問です。
オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。
DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
- 347 :名無しさん@お腹いっぱい。:2009/01/04(日) 10:03:30 ID:7KtylUIv0
- >>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
- 348 :名無しさん@お腹いっぱい。:2009/01/04(日) 10:40:47 ID:agtqcM4Z0
- >>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。
- 349 :名無しさん@お腹いっぱい。:2009/01/04(日) 11:31:36 ID:1GxGvmcA0
- >>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
- 350 :名無しさん@お腹いっぱい。:2009/01/04(日) 12:47:15 ID:zOoDAii/0
- アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
- 351 :名無しさん@お腹いっぱい。:2009/01/04(日) 20:29:51 ID:thlvUT4J0
- サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
- 352 :名無しさん@お腹いっぱい。:2009/01/06(火) 19:35:25 ID:HKJ+mumj0
- ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
- 353 :名無しさん@お腹いっぱい。:2009/01/06(火) 23:49:18 ID:HKJ+mumj0
- どうやらWeBOXで出来ますね、すみませんでした
- 354 :名無しさん@お腹いっぱい。:2009/01/12(月) 18:55:19 ID:mtFSF/p40
-
以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。
http://www.gamebanshee.com/neverwinternights/
うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。
宜しくお願いします。
- 355 :名無しさん@お腹いっぱい。:2009/01/12(月) 19:09:18 ID:Ad7xK/MA0
- あ
- 356 :名無しさん@お腹いっぱい。:2009/01/14(水) 04:56:44 ID:XsghDILe0
- 基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。
だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
- 357 :名無しさん@お腹いっぱい。:2009/01/15(木) 04:50:49 ID:14aIogQH0
- どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
- 358 :名無しさん@お腹いっぱい。:2009/01/15(木) 22:38:28 ID:SkpOdVD30
- >>356 様
ご回答ありがとうございます。
スタイルシートについて、いろいろと調べたのですが、
リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、
新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。
このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
- 359 :名無しさん@お腹いっぱい。:2009/01/22(木) 10:04:12 ID:72T0n0l+0
- ↑
あっ ↑ は、>>354からの書き込みです。
- 360 :名無しさん@お腹いっぱい。:2009/01/22(木) 10:13:00 ID:LOPrZeW60
- まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません
- 361 :名無しさん@お腹いっぱい。:2009/02/08(日) 16:33:12 ID:1ew7wZVH0
- あああ
- 362 :名無しさん@お腹いっぱい。:2009/02/17(火) 21:27:34 ID:swvN60Nx0
- サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
- 363 :名無しさん@お腹いっぱい。:2009/03/03(火) 08:01:05 ID:hIoIaLsc0
- 無理
- 364 :名無しさん@お腹いっぱい。:2009/03/04(水) 02:02:52 ID:iOzdqfhq0
- 巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
- 365 :名無しさん@お腹いっぱい。:2009/03/04(水) 12:44:56 ID:kOsE1mcy0
- >>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を
- 366 :名無しさん@お腹いっぱい。:2009/03/04(水) 20:52:19 ID:iOzdqfhq0
- ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
- 367 :名無しさん@お腹いっぱい。:2009/03/04(水) 22:03:51 ID:SjWqihRZ0
- wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
- 368 :名無しさん@お腹いっぱい。:2009/03/05(木) 08:05:04 ID:5euH1yl80
- 例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage
- 369 :名無しさん@お腹いっぱい。:2009/03/05(木) 15:20:36 ID:y2etLDHA0
- 管理側ですぐばれてアク禁
- 370 :名無しさん@お腹いっぱい。:2009/03/05(木) 19:05:28 ID:5euH1yl80
- >>369
そうなのか、諦めるわ
- 371 :名無しさん@お腹いっぱい。:2009/03/05(木) 22:13:12 ID:QC0/AZnI0
- この程度でなるわけねー
- 372 :名無しさん@お腹いっぱい。:2009/03/05(木) 22:51:07 ID:5euH1yl80
- >>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
- 373 :名無しさん@お腹いっぱい。:2009/03/06(金) 00:54:24 ID:xnM4IX3Z0
- firefoxのscrapbookでのんびりと保存するのがベターかな
- 374 :名無しさん@お腹いっぱい。:2009/03/06(金) 14:01:59 ID:i20Uaw0U0
- >>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。
- 375 :名無しさん@お腹いっぱい。:2009/03/06(金) 15:00:53 ID:PmwxrF/V0
- >>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
- 376 :名無しさん@お腹いっぱい。:2009/03/07(土) 15:46:28 ID:EX6aOmt+0
- >>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
- 377 :名無しさん@お腹いっぱい。:2009/03/20(金) 22:02:39 ID:JSyDiuTFP
- hosyu
- 378 :名無しさん@お腹いっぱい。:2009/03/29(日) 05:41:06 ID:t09wwLl20
- 懐かしい話だ
- 379 :名無しさん@お腹いっぱい。:2009/04/01(水) 18:48:18 ID:sW1brWClO
- CSS内の画像リンクも辿って保存してくれるソフトありますか?
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
- 380 :379:2009/04/02(木) 11:54:11 ID:CFvsFsE+O
- すみません。解決しました。
- 381 :名無しさん@お腹いっぱい。:2009/04/03(金) 06:23:23 ID:oDGPoJNA0
- 俺と今後の為にどのソフトで解決したのかkwsk
- 382 :名無しさん@お腹いっぱい。:2009/04/04(土) 14:46:47 ID:izV7zIzI0
- オラも知りたい
- 383 :名無しさん@お腹いっぱい。:2009/04/04(土) 19:11:59 ID:g6yEv4mBO
- ソフトを起動さえしとけば指定した時間に自動的に巡回して更新された部分を保存してくれるような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
- 384 :名無しさん@お腹いっぱい。:2009/04/05(日) 04:43:52 ID:F1AvQ3H50
- scrapbookはどうもMIMEタイプを誤認して、ダウンロード中にダイアログボックスを出すことがあります。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
- 385 :名無しさん@お腹いっぱい。:2009/04/05(日) 13:25:58 ID:5dZaffZs0
- すみませんが、質問です。
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?
具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html
この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/
も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。
このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。
今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。
しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。
この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
- 386 :名無しさん@お腹いっぱい。:2009/04/05(日) 14:25:28 ID:At+ZdFLO0
- wiki取り込む方法見つかった?
- 387 :名無しさん@お腹いっぱい。:2009/04/10(金) 22:39:16 ID:vy87VD8G0
- CGIページをきちんと保存、再生できるソフトないの?
巡集だと再生するときカオスになる・・・
- 388 :名無しさん@お腹いっぱい。:2009/04/11(土) 15:12:26 ID:FJDV+iB10
- http://pc12.2ch.net/test/read.cgi/software/1239155686/l50
【RunAsData】シェアウェアの試用期限クラック【HookDate】
アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。
http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します
http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧
#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
- 389 :名無しさん@お腹いっぱい。:2009/05/17(日) 13:23:31 ID:/NzZAjoN0
-
- 390 :名無しさん@お腹いっぱい。:2009/05/25(月) 14:50:50 ID:03qdJTKV0
- 話題もないねえ…
- 391 :名無しさん@お腹いっぱい。:2009/05/25(月) 16:29:47 ID:Y24nZ+jT0
- じゃあ、サイト丸ごと取り込みソフトが禁止されているサーバで、どうやってチェックをくぐり抜けてソフトで丸ごとDLするかとか考えるか。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
- 392 :名無しさん@お腹いっぱい。:2009/06/08(月) 10:51:52 ID:AufSz18I0
- t t p : / / g . e - h e n t a i . o r g /
ここ取り込める?
画像だけでもいいんだけど
向こうに知られるとまずいから
アドレスは切った
- 393 :名無しさん@お腹いっぱい。:2009/06/08(月) 11:34:03 ID:8JvAcKuU0
- Refererくらい理解してから書き込めよ
- 394 :名無しさん@お腹いっぱい。:2009/06/08(月) 21:29:18 ID:AufSz18I0
- Refererは理解してる、が
取り込みソフト拒否されてるっぽいんだよねここ
- 395 :名無しさん@お腹いっぱい。:2009/06/10(水) 19:59:37 ID:/w+HilEi0
- PCにあまり詳しくないんですが簡単な動画ダウンロードソフトでおすすめありますか?
- 396 :名無しさん@お腹いっぱい。:2009/06/11(木) 09:32:33 ID:CI9JV7KS0
- とりあえずyahooの質問集でもクグッて質問しような?
ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
- 397 :名無しさん@お腹いっぱい。:2009/06/11(木) 10:13:00 ID:CI9JV7KS0
- ああ、それと。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。
下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
- 398 :名無しさん@お腹いっぱい。:2009/06/13(土) 01:37:45 ID:HDt2gcxv0
- wikiまるごと保存できるソフトなイノ?
- 399 :名無しさん@お腹いっぱい。:2009/06/14(日) 01:10:44 ID:7qssCspA0
- >>394
このスレからhttp://g.e-hentai.org/
へのrefererの話をしていると思われ
- 400 :名無しさん@お腹いっぱい。:2009/06/23(火) 17:45:38 ID:rUYeky/o0
- >>398
フリーじゃないけど
A1 Website Download
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
- 401 :名無しさん@お腹いっぱい。:2009/06/27(土) 22:03:23 ID:i2oYT4kJ0
- 巡集って
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
- 402 :名無しさん@お腹いっぱい。:2009/06/27(土) 22:14:37 ID:DjFTSHEj0
- 手作業でリネーム
取り込む先のフォルダの名前を指定する
好きなのを選べ
- 403 :名無しさん@お腹いっぱい。:2009/07/18(土) 09:37:45 ID:fBBs6NrU0
- 波乗野朗使ってるんですが、スタイルシートに対応していないのか、最近のWEBサイトを取り込むとガタガタに崩れてしまいます。
フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
- 404 :名無しさん@お腹いっぱい。:2009/08/01(土) 12:57:23 ID:yPfvTWSQ0
-
Bulk Image Downloader
これまでFree版を使用していたんだけど、有料onlyになったのかな?
CODEを入力しないと、起動しなくなった。FireFOXのアドオンもダメ。。。
便利だったのに、な。
http://antibody-software.com/web/index.php?option=com_content&task=view&id=33&Itemid=30
- 405 :名無しさん@お腹いっぱい。:2009/08/07(金) 11:31:36 ID:O6rKHi3B0
- ブログの画像だけを取り込むソフトないですか?
web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと
どっからきたかわからない変な画像まで取り込んでしまってうまくいきません
よろしくお願いします
- 406 :名無しさん@お腹いっぱい。:2009/08/14(金) 01:11:21 ID:g2iL4TTl0
- VIPダウンろーだ
ttp://vdlspt.bob.buttobi.net/vipdownloda/
2chとGazouBBSの一部専用 Javaアプレット製
- 407 :名無しさん@お腹いっぱい。:2009/08/16(日) 15:42:19 ID:F1VFlTYE0
- >405
画像フィルタ使えばいいじゃん。
ブログの画像のURL見て、"http://xxx.com/images/xxx.jpg"とかだったら、
URL(含まれる)ってとこに"http://xxx.com/images"を追加する。
- 408 :名無しさん@お腹いっぱい。:2009/08/16(日) 15:49:36 ID:F1VFlTYE0
- >>405
追記。あと、広告なら大抵gifだからgifは外すとか、
わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。
web image hunterは検出力高いから、フィルタは必須。
- 409 :名無しさん@お腹いっぱい。:2009/08/17(月) 23:27:34 ID:zCh7YkeM0
- javascript追跡に対応してるソフトってありますか?
- 410 :名無しさん@お腹いっぱい。:2009/08/18(火) 19:59:35 ID:QE4ZdWoG0
- imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、
ver8.0.0ではできなくなっています。
prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
- 411 :名無しさん@お腹いっぱい。:2009/08/19(水) 15:14:37 ID:qmXb8rBu0
- > imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
ページをPOSTメソッドで取得しているんだな。
設定の「POSTmethodも保存する」をチェック。
これで無理なら諦める。
- 412 :名無しさん@お腹いっぱい。:2009/08/20(木) 14:50:28 ID:gE/IvJew0
- imagefap一括DLしたくして↓のページでやったんだけど
ttp://pictadicts.blog38.fc2.com/blog-entry-2242.html
ちゃんと展開してDLしてくれません。
他にお勧めの方法か解決策ってないでしょうか。
- 413 :410:2009/08/21(金) 02:07:18 ID:kCD6o2M50
- >>411
>設定の「POSTmethodも保存する」をチェック。
この設定で希望どおりの動作になりました。ありがとうございます
prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、
「拡張子がcgiの単なるHTML」という扱いではないようですね
- 414 :名無しさん@お腹いっぱい。:2009/09/13(日) 22:20:00 ID:4oE3F4nr0
- まとめサイト(blog)の広告部分を取り除いて保存してくれるソフトないもんかな
紙copiで保存して余計な部分を(ry
→サイズの大きなページで紙copiがザ・ワールド
BullzipやPrimoでPDFにして余計な部(ry
→サイズの大きな(ryで一般保護法ナントカ
mhtで保存しておいて余計な部分を手動で削除する方法
→mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry
Wordにコピー&ペーストして(ry
→レイアウトが原形を留めてくれない
Proxomitronで広告をフィルタリング
→フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた
とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト
→オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
- 415 :名無しさん@お腹いっぱい。:2009/09/14(月) 12:23:55 ID:PB1HOZh+0
- >>414
広告アドレスはアカウントID指定しないで、ワイルドカード指定してる?
広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、
ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。
- 416 :名無しさん@お腹いっぱい。:2009/09/24(木) 20:00:50 ID:V1YBGQBI0
- 巡集使ってみたいのですがページが消えていてどこ探してもみつかりません。
どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
- 417 :名無しさん@お腹いっぱい。:2009/09/24(木) 22:31:22 ID:n+r1nZD00
- 巡集消えてるね。
いいソフトだったのに残念だ。
- 418 :名無しさん@お腹いっぱい。:2009/09/25(金) 22:12:28 ID:kaj3Edae0
- 消えてねえよ、ここで更新チェックしとけ
ソフトアンテナ > Windows > WWW > ダウンロード > 巡集
http://www.softantenna.com/lib/2305/index.html
- 419 :名無しさん@お腹いっぱい。:2009/09/25(金) 23:35:57 ID:htTJHAHB0
- DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
- 420 :名無しさん@お腹いっぱい。:2009/09/26(土) 00:20:49 ID:vz+4woN2P
- 巡集更新されてるな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
- 421 :名無しさん@お腹いっぱい。:2009/09/26(土) 10:23:56 ID:oaSHciNs0
- >>418
そのリンク先のベクターが一時的に消えてたんだよ。
- 422 :名無しさん@お腹いっぱい。:2009/09/27(日) 13:50:11 ID:ms06DL850
- ついに巡集のURLフィルタの除外指定が想定どおりになったぞ
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
- 423 :名無しさん@お腹いっぱい。:2009/09/29(火) 22:52:47 ID:jvpQY2ni0
- 巡集素晴らしいソフトだけど、
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
- 424 :名無しさん@お腹いっぱい。:2009/09/30(水) 10:39:36 ID:VYCIQ4+X0
- >>423
みんなで幸せになろうよw
- 425 :名無しさん@お腹いっぱい。:2009/10/20(火) 23:48:32 ID:38/cKrSL0
- >>401
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
- 426 :名無しさん@お腹いっぱい。:2009/10/20(火) 23:53:17 ID:38/cKrSL0
- >>425に追記
「URLは一定だけど中身が変わるファイルの、自動的な定期保存」が希望といっても良い。
- 427 :名無しさん@お腹いっぱい。:2009/11/17(火) 01:19:05 ID:yVWqHF3k0
- 401、426に同じく。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
- 428 :名無しさん@お腹いっぱい。:2009/12/06(日) 23:39:56 ID:Xd69xJs/0
- Offline Explorer Ver4の日本語化をやり始めたんだけど
気が向いたらランゲージファイル公開するわ
- 429 :名無しさん@お腹いっぱい。:2009/12/07(月) 08:38:55 ID:DFn9YnAw0
- もうVer.5になってなかったっけ?
- 430 :428:2009/12/08(火) 23:22:21 ID:D9b5l12j0
- Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
- 431 :名無しさん@お腹いっぱい。:2010/01/06(水) 13:07:10 ID:kDFT625l0
- >>425
俺もそれ探したけど、見つからんかった。
Beeってこれ?
http://crocro.com/pc/soft/bee/intro/intro_soft.html
- 432 :名無しさん@お腹いっぱい。:2010/01/06(水) 17:25:24 ID:z5X944lK0
- それを落とそうとしたら、avast がトロイ発見したのだけど・・・
感染先は Bee.exe で実行ファイル
- 433 :名無しさん@お腹いっぱい。:2010/01/06(水) 20:00:01 ID:kDFT625l0
- >>432
誤検知だから大丈夫
うちはAviraだけど、beeServer_start.exe ってのも誤検知した。
- 434 :名無しさん@お腹いっぱい。:2010/01/06(水) 20:12:18 ID:RzwWHhyF0
- 巡集のソート機能にはバグがあるのかな?
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
- 435 :名無しさん@お腹いっぱい。:2010/01/06(水) 22:43:12 ID:z5X944lK0
- 誤検知なのか。 トンクス
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
- 436 : ◆fdAnbU5Z6U :2010/01/07(木) 19:43:31 ID:WixZAyedP
- 正露丸の方がいい!正露丸は必需品これ絶対ね!基地外漏りたぽ全部寄越せや
- 437 :名無しさん@お腹いっぱい。:2010/01/12(火) 00:02:23 ID:mBZ3Hlbu0
- やっぱり再三出てる話題だったか
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
- 438 :名無しさん@お腹いっぱい。:2010/01/14(木) 17:34:33 ID:BnCvLsD90
- ふつうにwiki保存できてるけど・・・
- 439 :名無しさん@お腹いっぱい。:2010/01/14(木) 19:38:01 ID:yv0Hxe320
- wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
- 440 :名無しさん@お腹いっぱい。:2010/01/15(金) 03:59:54 ID:59bOFj/P0
- ScrapBookつかえ
- 441 :名無しさん@お腹いっぱい。:2010/01/17(日) 16:30:03 ID:MxrdNVKG0
- webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
- 442 :名無しさん@お腹いっぱい。:2010/01/28(木) 14:33:42 ID:hxTP88ae0
- ソース見てCSSとか足らないファイル無いか確かめて見れ
- 443 :名無しさん@お腹いっぱい。:2010/01/28(木) 15:06:42 ID:+eB2y8gU0
- WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。
今までオートパイロットで WebAuto 以上のものにあったことが無い
- 444 :名無しさん@お腹いっぱい。:2010/01/29(金) 01:51:12 ID:pdIiOyGT0
- 忍者ブログがちゃんと取り込めるお勧めってある?
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
- 445 :名無しさん@お腹いっぱい。:2010/01/31(日) 12:58:52 ID:LRfrwAhF0
- 他の所で聞いてみましたが、反応がなかったので。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
- 446 :名無しさん@お腹いっぱい。:2010/02/13(土) 23:30:04 ID:i791U1t40
- gethtmlwでのことなのですけれども
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
- 447 :名無しさん@お腹いっぱい。:2010/02/14(日) 16:30:15 ID:ekI+lMw50
- なんかいろいろ調べてたんですが
robots.txtに User-agent: * Disallow: / って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる
でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ
で いいのかなぁ。。。
- 448 :名無しさん@お腹いっぱい。:2010/02/16(火) 19:55:21 ID:S5I004NN0
- Proxomitron を使っているのなら、User-Agent を書き換えるよりも
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。
どっちみち User-Agent の書き換えは推奨するけど。
デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
- 449 :名無しさん@お腹いっぱい。:2010/02/16(火) 23:36:40 ID:eb20GwbO0
- robots.txtについては「0:robots.txt」を設定することで読まない設定が可能だから楽ちんだね
- 450 :名無しさん@お腹いっぱい。:2010/02/17(水) 19:44:59 ID:C0QOwpgt0
- 盲点突かれてもう目が点
ありがちょ
- 451 :名無しさん@お腹いっぱい。:2010/02/18(木) 10:36:09 ID:cDYue5wv0
- >>450
もともと盲点は見えないから突かれても問題ない
- 452 :名無しさん@お腹いっぱい。:2010/04/04(日) 05:53:01 ID:OKHjYikf0
-
- 453 :名無しさん@お腹いっぱい。:2010/04/16(金) 01:50:11 ID:LJzX0FMt0
- twitterのプロフ検索サイトや
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
- 454 :名無しさん@お腹いっぱい。:2010/05/27(木) 11:26:34 ID:ieOwLYqC0
- あげ
- 455 :名無しさん@お腹いっぱい。:2010/05/27(木) 11:48:03 ID:dz2Xu6+80
- wgetでサイトまるごと採ろうとしてるけど
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
- 456 :名無しさん@お腹いっぱい。:2010/07/17(土) 18:45:54 ID:geoOLYIs0
- scrapbook+の最新版でwikipediaを階層保存しようとするとたまにエラーが出て保存できないのですが設定で回避できますか?
- 457 :名無しさん@お腹いっぱい。:2010/10/02(土) 03:16:36 ID:tOtD8Seh0
- wgetのGUI版があったので貼っとく
VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
- 458 :名無しさん@お腹いっぱい。:2010/10/07(木) 20:51:42 ID:8vo6Uaef0
- moe.imouto.org終了のお知らせか・・・
- 459 :名無しさん@お腹いっぱい。:2010/10/15(金) 01:29:54 ID:TBUV4Okd0
- >>443の書き込み見てWebAutoを使ってみたけど
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
- 460 :名無しさん@お腹いっぱい。:2010/10/23(土) 09:06:37 ID:lnHUl5BB0
- 巡集の1.7.1A→1.7.2のバージョンアップで、
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
- 461 :名無しさん@お腹いっぱい。:2010/10/25(月) 22:58:32 ID:72FsLqyA0
- 何度か話題に出ているけどやっぱりwikiをそっくりダウンロードするのは難しいんだね
- 462 :名無しさん@お腹いっぱい。:2010/10/26(火) 23:59:32 ID:9JgHvqPN0
- ローカルに保存したwikiを
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
- 463 :名無しさん@お腹いっぱい。:2010/11/05(金) 00:04:14 ID:9BGnuHFv0
- 更新頻度と64bit対応を考えると、WinHTTrackしか選択肢がないよう
Firefoxのアドオンのほうが幸せになれるのかもしれんな
GetHTMLwの作者はどうなったのですが
最近、更新がないようですが
あげ
- 464 :名無しさん@お腹いっぱい。:2010/11/08(月) 15:27:20 ID:qDJ9LufK0
- 今まで、pagedown使ってたけど、巡集に乗り換えたけどいいね。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
- 465 :名無しさん@お腹いっぱい。:2010/11/08(月) 22:17:48 ID:y6Jx/ALlP
- 最近「〜けど〜けど」「〜ので〜ので」「〜だから〜だから」みたくたった1文の構成すら出来ない奴が増えたな
- 466 :名無しさん@お腹いっぱい。:2010/11/09(火) 11:16:37 ID:frlQOzh00
- 最近句読点すら使えない奴増えたよな
- 467 :名無しさん@お腹いっぱい。:2010/11/09(火) 23:59:38 ID:sTHTzJsZ0
- i.aspの付いているaspで生成されている(?)携帯サイト
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
- 468 :名無しさん@お腹いっぱい。:2010/11/10(水) 14:11:03 ID:lmrHRm4k0
- 魔法のiらんどなら巡集でフィルタ設定して取ってる
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
- 469 :467:2010/11/12(金) 12:06:32 ID:UOQQ0O0Q0
- 情報をありがとうございます。
巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?
あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
- 470 :名無しさん@お腹いっぱい。:2010/11/13(土) 10:33:10 ID:tSkOmlSC0
- 自分の場合Firefox、Opera辺りならD&Dすれば
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない
ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
- 471 :名無しさん@お腹いっぱい。:2010/11/14(日) 09:57:13 ID:89KNH7or0
- ローカルの特定の拡張子の扱いはブラウザ依存じゃないのかな
- 472 :467:2010/11/20(土) 15:24:55 ID:O0cud1UJ0
- 返答が遅くなってしまい申し訳ありません。
余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。
aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
- 473 :名無しさん@お腹いっぱい。:2010/11/20(土) 20:10:20 ID:213w5ulb0
- 頻繁にファイルを直接選択してブラウザで見たいというのでなければ
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
- 474 :467:2010/11/20(土) 21:34:10 ID:O0cud1UJ0
- >>473
その方法だと、スタートページは正しく表示されるのですが、
そこからリンクしているそれぞれのページを見に行くときに、
結局同じ問題が生じて正しく表示されなくなってしまうみたいです。
- 475 :名無しさん@お腹いっぱい。:2010/11/21(日) 14:57:29 ID:vODtUEkF0
- それって、content-typeやらがwebサーバー経由で見た場合はhtmlで返ってくるけど
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね
ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
- 476 :467:2010/11/21(日) 21:09:43 ID:IaD1YDka0
- >>475
Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。
Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。
当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
- 477 :名無しさん@お腹いっぱい。:2010/12/25(土) 16:50:14 ID:iR3S9Wga0
- winhttrackを使ってるんだけど、途中でトラブルがあって止まってしまった
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
- 478 :名無しさん@お腹いっぱい。:2010/12/31(金) 02:53:13 ID:57SW0Dqp0
- >>476
俺はIE詳しくないから検索の手助けになりそうな情報だけ
ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね
だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定
「関連付け MIME」なんかでググったらでてこないかな
ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。
- 479 :名無しさん@お腹いっぱい。:2010/12/31(金) 17:14:16 ID:X5j+/04f0
- PC
- 480 :名無しさん@お腹いっぱい。:2011/01/03(月) 12:57:19 ID:98ttV4VF0
- ComGetter
- 481 :名無しさん@お腹いっぱい。:2011/01/04(火) 00:18:27 ID:MGz4r0zS0
- CompleteGetterのRFunc:1とかRFunc:2って何ですか?
- 482 :名無しさん@お腹いっぱい。:2011/01/06(木) 20:13:45 ID:1jij3k+00
- フレーム付のページを一括で保存できるソフトってありますか?
- 483 :名無しさん@お腹いっぱい。:2011/01/08(土) 17:58:29 ID:0w5F53fBP
- >>482
>>1-481
- 484 :名無しさん@お腹いっぱい。:2011/01/25(火) 17:35:02 ID:4v6efgTR0
- ttp://liargame.jp/index.html
このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
- 485 :名無しさん@お腹いっぱい。:2011/01/26(水) 17:28:22 ID:9LvkE2vX0
- そういう場合はXaxonのネットレコーダーしかないな。
- 486 :名無しさん@お腹いっぱい。:2011/01/27(木) 02:50:00 ID:JYGImn8Z0
- >>484
ほぼ全面Flashやがな。
- 487 :名無しさん@お腹いっぱい。:2011/02/08(火) 21:09:45 ID:ihfk+Bz20
- http://www.nhk.or.jp/artbs/photo/009.html
上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
- 488 :名無しさん@お腹いっぱい。:2011/02/08(火) 21:40:58 ID:kmLZd/z+0
- できるよ
よく使われてるjava scriptだろ
- 489 :名無しさん@お腹いっぱい。:2011/02/09(水) 00:09:09 ID:2QpVybi70
- フォーラム系を保存したいのですが
良いソフトありますか?
- 490 :名無しさん@お腹いっぱい。:2011/02/09(水) 00:45:25 ID:S3LS3a5p0
- >>488
winhttrackみたいなミラーソフトでは、無理だったのだけれど
どうすれば、保存できるようになるの?
- 491 :名無しさん@お腹いっぱい。:2011/02/12(土) 01:21:50 ID:dChV5rWn0
- 決定的なソフトは現れないかねえ
新しいソフトですら現れていないわけだが
- 492 :名無しさん@お腹いっぱい。:2011/02/13(日) 22:02:23 ID:6bZnuHuB0
- >>489
ない
- 493 :名無しさん@お腹いっぱい。:2011/02/13(日) 22:56:17 ID:sFgYj0cn0
- 龍馬伝の公式ホームページを保存しようとしてるんだけれど、TOPページから
してとりこめない。
どんなソフトを使えば取り込めますか?
- 494 :名無しさん@お腹いっぱい。:2011/02/19(土) 23:58:21.21 ID:4N0fBC/Y0
- 巡集でURLに「0902」を含むファイルだけなぜか拾ってくれないんですが、同じような症状の人いますか?
いろいろ設定を変えてみたけれど駄目でした。
- 495 :名無しさん@お腹いっぱい。:2011/02/21(月) 17:39:50.04 ID:mCsnFxG/0
- winhttrackというサイトミラーソフトを使用しています。
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。
Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。
まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?
- 496 :名無しさん@お腹いっぱい。:2011/02/23(水) 17:08:22.81 ID:1tqryiUd0
- >>495
ですが、パソコンを使用しているときには、そういった状態になりにくく
使用せず放置すると、CHKDSKが必要な状態になりやすくなります
なぜなんでしょうか?
- 497 :名無しさん@お腹いっぱい。:2011/02/26(土) 14:52:25.55 ID:eI0hwifQ0
- (´・ω・`)知らんがな
- 498 :名無しさん@お腹いっぱい。:2011/03/18(金) 09:56:13.02 ID:8uboNOZD0
- 巡集のように絶対パスを相対パスに(http://〜index.htmlをindex.htmlに)してくれる機能ってGetHTMLにもある?
それか、同等の機能を持ったソフトとか…。
携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
- 499 :名無しさん@お腹いっぱい。:2011/03/18(金) 10:00:43.45 ID:8uboNOZD0
- あ、Wが抜けてた。GetHTMLWです。
- 500 :名無しさん@お腹いっぱい。:2011/03/18(金) 16:41:32.10 ID:A+5wOcCe0
- (´・ω・`)知らんがな
- 501 :名無しさん@お腹いっぱい。:2011/03/18(金) 19:49:28.02 ID:8uboNOZD0
- (´・ω・`)そうだよね
- 502 :名無しさん@お腹いっぱい。:2011/03/25(金) 17:50:39.65 ID:gecN6pF70
- Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
- 503 :名無しさん@お腹いっぱい。:2011/03/31(木) 22:19:17.73 ID:JplTcRyR0
- VISTAでIE7使ってるんだけど、日テレのサイト取り込むには何がお勧め?(´・ω・`)
例えばこんなの
↓
http://www.ntv.co.jp/chienari/
- 504 :名無しさん@お腹いっぱい。:2011/04/01(金) 18:04:55.06 ID:xRp+kGAS0
- 2ちゃんねるのスレッドの保存には何を使えばいいでしょうか?
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
- 505 :名無しさん@お腹いっぱい。:2011/04/01(金) 23:32:30.09 ID:I3kOVvUq0
- >>504
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
- 506 :503:2011/04/08(金) 06:39:02.29 ID:O8PDBMZ+0
- 回答が・・・どなたか回答を(´;ω;`)ブワッ
- 507 :名無しさん@お腹いっぱい。:2011/04/08(金) 11:12:59.21 ID:sdwIAebP0
- httrackでhttp://cgi4.nhk.or.jp/hensei/program/text/index.cgiを
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
- 508 :名無しさん@お腹いっぱい。:2011/04/08(金) 17:38:56.19 ID:toP+TA3e0
- >>505
2ちゃんねる専用ビューアってフリーソフトみたいなものですか?
もう少し詳しくお願いします
あと、芸能人のやってるアメブロを保存するには何を使うのがいいですか?
- 509 :名無しさん@お腹いっぱい。:2011/04/08(金) 18:05:22.63 ID:ODoWyqCr0
- いろいろあるんだけどJaneが無難かな
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
- 510 :名無しさん@お腹いっぱい。:2011/04/10(日) 07:51:17.21 ID:2EVaxSnc0
- >>506
m9(^Д^)プギャーーー!!!
- 511 :名無しさん@お腹いっぱい。:2011/04/10(日) 22:26:02.67 ID:r6raCUVJ0
- 巡集で曜日指定のダウンロードする方法はないでしょうか?
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
- 512 :名無しさん@お腹いっぱい。:2011/04/10(日) 22:35:08.17 ID:r6raCUVJ0
- ちなみに現在は別のツールからキックしています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
- 513 :名無しさん@お腹いっぱい。:2011/04/22(金) 10:30:47.67 ID:d7+lWIHr0
- 一定時間ごとに自動で巡回してくれる
サイトを丸ごと取り込めるフリーソフトないでしょうか?
- 514 :名無しさん@お腹いっぱい。:2011/05/06(金) 08:08:27.47 ID:evJF6buF0
- ここは過疎っているので他で聞いてみます
- 515 :名無しさん@お腹いっぱい。:2011/05/11(水) 10:55:51.25 ID:HcEd9XAn0
- >>513
cronでwgetをまわすといいよ
- 516 :名無しさん@お腹いっぱい。:2011/06/24(金) 18:03:34.03 ID:m9RhzJyk0
- どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
- 517 :名無しさん@お腹いっぱい。:2011/07/01(金) 00:09:52.24 ID:anPvOplt0
- 巨大フォーラムを取り込めるソフト
ありませんか?
- 518 :名無しさん@お腹いっぱい。:2011/07/31(日) 23:09:41.06 ID:/04LhjsQ0
- タイマーで2chの実況スレを
ダウンロードできるようなソフトはないでしょうか?
- 519 :名無しさん@お腹いっぱい。:2011/08/03(水) 18:19:10.27 ID:Mv+vARYm0
- このソフト便利そうだけど、使ってみた人いる?
無料サンプル動画収集くん
http://sampledougasyusyu.blog.fc2.com/
- 520 :名無しさん@お腹いっぱい。:2011/08/04(木) 13:05:41.67 ID:F0yCqkP40
- >>517
そんなもの無い
- 521 :名無しさん@お腹いっぱい。:2011/08/09(火) 14:00:52.43 ID:4UZXVX1S0
- >>519
数年前だったらつかってたかも
今はまったく必要ないけど
- 522 :名無しさん@お腹いっぱい。:2011/08/12(金) 21:49:19.50 ID:A+bFfX8v0
- >>521
どうしてだい?
ちんこたたなくなったのか?
- 523 :名無しさん@お腹いっぱい。:2011/09/16(金) 21:02:29.29 ID:XaOvb9j60
- 使ってみた。
- 524 :名無しさん@お腹いっぱい。:2011/09/16(金) 21:04:15.07 ID:XaOvb9j60
- サンプル専門で収集してる人には便利かな。
根こそぎDLするから見るの疲れるけど。
- 525 :名無しさん@お腹いっぱい。:2011/10/11(火) 10:04:42.08 ID:Afz9Up6l0
- http://www.nicozon.net/watch/sm580404(´・ω・`)
- 526 :名無しさん@お腹いっぱい。:2011/10/19(水) 22:07:26.98 ID:1qVRjeoL0
- PC板の総合質問スレで質問したらソフトウエア板でということでした
ここでいいんでしょうか
すみません
どこで聞いたらいいかわからないので
RealPlayer SPでYoutubeなどをダウンロードしていますが
「このビデオをダウンロード」のボタンは表示されるし
左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます
しかしダウンローダーが出てこないのです
RealPlayer Download and Record Plugin for Internet Explorerは有効で
「セキュリティの設定」の「ファイルのダウンロード」も有効です
また「 Unable to download 」は表示されません
どなたかエロイ人教えてください
ちなみにOSはXPでIEは8.0です
- 527 :名無しさん@お腹いっぱい。:2011/10/20(木) 04:10:43.21 ID:vn7BtAJfO
- age
- 528 :名無しさん@お腹いっぱい。:2011/10/31(月) 22:02:13.50 ID:fAJuLs4d0
- フォーラム系の膨大なページがあるサイトをダウンロードしたいのですが、
何か良いソフトないでしょうか?
- 529 :名無しさん@お腹いっぱい。:2011/11/01(火) 00:45:22.29 ID:77d+tSbQ0
- 今ならFirefox+Scrapbookあたり
ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
- 530 :名無しさん@お腹いっぱい。:2011/11/03(木) 22:44:54.09 ID:CDi4kRgv0
- >>529
遅れましたが、ありがとう。
135 KB
■ このスレッドは過去ログ倉庫に格納されています
★スマホ版★
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver 05.04.02 2018/11/22 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)