5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

連番のH画像を一気にダウンロードする

1 :たのも〜:2001/01/10(水) 15:02
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

2 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:11
古いがhttpdownとかで落とせば?(もっといいのがあるだろう)
連番はshスクリプトとかでファイル名生成プログラム作ればいいじゃん

関係ないがnvってゆーregetできるツールはどんなカンジ?

3 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:12
H画像じゃないけど、連番のファイルのダウンロードなら
perlでURLリスト作ってwget -i url.listでやってるが。

4 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:12
自分でつくれよ(w
おれはいっつもperlスクリプトでURLリストをつくって
wget に食わせます


5 :4:2001/01/10(水) 15:13
3とかぶった(w


6 :3:2001/01/10(水) 15:14
外出鬱氏。

7 :3:2001/01/10(水) 15:17
みんな似たようなことやってるなー。

8 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:24
zshとwgetをあわせればURLリストはコマンドラインで簡単に
生成できる。

9 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:35
でも windows だと、この手のことするのにすんげー苦労しない?
波乗とか色々落して見たり。
#俺は teleport pro だったけど

10 :名無しさん@お腹いっぱい。:2001/01/10(水) 15:57
zsh を使えば
% wget http://www.hoge.he.jp/hoge/ero{001..100}.jpg
ってやるだけ

#zshに乗りかえろう

11 :名無しさん@お腹いっぱい。:2001/01/10(水) 16:15
>>10
ほう。何か不思議。どうなってんの?

12 :1:2001/01/10(水) 16:33
>3, 4様
当方、厨房ユーザーゆえ、後学のため、
そのPerlスクリプトの見本を教えてくだされ。


13 :???????????????B:2001/01/10(水) 17:05
perl -e 'while ($i < 100) {printf("%s%03d%s", "http://www.hoge.he.jp/hoge/ero", $i++, ".jpg\n");}'

まぁ、きれいじゃないが機能するよ。
んー、tcsh だけど移行しようかなぁ・・・。

14 :???????????????B:2001/01/10(水) 17:07
>>10
それって 256文字 (だっけ?)の制限ないのー?
よく xargs つかうけど。

15 :???????????????B:2001/01/10(水) 17:19
あ、言い忘れたけど、13 のあとに
| xargs wget
ってやってね。
んじゃ、なんどもごめん

16 :1:2001/01/10(水) 17:42
>13さんとりいそぎ、さんくすです


17 :名無しさん@お腹いっぱい。:2001/01/10(水) 17:53

FreeBSD なら jot,linux なら seq を使えば,連番を生成してく
れる。これを使って foreach ループを回せば,tcsh でも問題無し。


foreach i (`jot -w '%02d' 10 1`)
fetch http://eroero.com/erohoge$i.jpg
end

詳しくは man jot or info seq。


18 :not 3,4:2001/01/10(水) 18:04
連番じゃない場合は
$file='hoge';
$cmd = 'wget';
open (_F,$file);
$proc = 0;
$max = 10;
while (<_F>)
{
if ($proc > $max)
{
wait;
$proc--;
}
unless (fork)
{
exec("$cmd $_ ");
}
else
{
$proc++;
}
}
while($proc--) {wait;}
close _F;

19 :4:2001/01/10(水) 20:49
ほれ。>>1

#!/usr/local/bin/perl
#
# countupper mainly for URL generation:-)
#
$Help=<<'EOF';
countup: カウントアップするのだ! 000 001 002 ... バージョン

Usage: countup [end]
countup [start] [end]
countup [start] [end] [offset]
EOF

if ($#ARGV == 0) {
($start,$end,$offset)=(0,@ARGV,1);
} elsif ($#ARGV == 1) {
($start,$end,$offset)=(@ARGV,1);
} elsif ($#ARGV == 2) {
($start,$end,$offset)=(@ARGV);
} else {
print $Help and exit;
}
for ($i=$start;$i<=$end;$i+=$offset){
printf "%3.3d\n",$i;
}


あとは煮るなり焼くなりしてちょうだい。
countup という名前で保存して chmod 755 して
bash上から
for x in `countup 100 120 2`; do wget http://foo.com/~bar/$x.jpg; done
とかね。

zshも便利そうだねぇ。


20 :1:2001/01/11(木) 01:47
>17=18,4さんさん
ありがとうございました。いろいろ試してみたいと思います。

21 :名無しさん@お腹いっぱい。:2001/01/11(木) 04:41
bash$ cat ~/script/fromto
#!/usr/bin/perl

if (@ARGV != 3) {
print STDERR "usage: fromto FORMAT FROM TO\n";
exit 1;
}

$fmt=$ARGV[0]."\n";
$from=$ARGV[1];
$to=$ARGV[2];
for ($i=$from;$i<=$to;$i++) {
printf $fmt, $i;
}
bash$ fromto "http://www.aaa.bbb/%03d.jpg" 1 50 >url
bash$ wget -i url


22 :名無しさん@お腹いっぱい。:2001/01/11(木) 05:30
エロパワー恐るべし(藁

23 :名無しさん@お腹いっぱい。:2001/01/11(木) 09:22
プログラミングの基本だよね, なんつーか.
プログラミング経験の無い人にはまず sh スクリプトから俺はすすめたいね.
毎日の作業と密着してて課題が思いつきやすいし.

エロくてもいい. たくましく育って欲しい



24 :???????????????B:2001/01/11(木) 13:45
zshが入ってるのなら数列生成は楽だよ。

#!/usr/bin/zsh
url=$*
for val in {0..255}
do
wget ${url}${val}.jpg
done

25 :名無しさん@お腹いっぱい。:2001/01/11(木) 13:49
>>24
ださ。>>10をみろよ。

26 :24:2001/01/11(木) 13:54
>>25

ガーソ
外出出汁脳

27 :名無しさん@お腹いっぱい。:2001/01/11(木) 14:17
そうだね、cui で使ってると、日常の作業でだるい所を
ちょっとシェルスクリプトくんでってできるからね・・・
windows の wsh って、その点でどうなのかな?
簡単に組めるのかな?

28 :bash:2001/01/11(木) 14:23
i=1; while test $i -le 350; do printf "http://morning.excelland.com/other/%03d.jpg\n" $i; i=$(($i+1)); done > list
wget -i list

てのはダメ?

29 :反則技:2001/01/11(木) 16:01
vectorでおとしてくる。
#windows用だったりして

30 :名無しさん@お腹いっぱい。:2001/01/11(木) 16:12
>>27
慣れももちろんあるけど、まずCreateObject()してobject生成してから
このメソッド呼んで〜あのメソッドに渡して〜とかだから、shell script
ほど手軽な感じではないなぁ(少なくとも俺は)。

そもそも呼び出せるオブジェクト類のヘルプがどこにあるんだかわからん。

31 :名無しさん@お腹いっぱい。:2001/01/11(木) 17:04
>>22
うーむ。科学の発展はエロと共にあるのです。
インターネットの普及もエロがあればこそっ!!

32 :これはどうよ:2001/01/11(木) 21:07
1です。
13さんのパールスクリプトをお手本にして、徹夜で対話式連番作成パールスクリプトを作ってみました。
初めてのスクリプトです。お手柔らかにお願いします。

#!/usr/bin/perl
print "What is URL? (Default=http://www.hoge.ac.jp/img/)
http://";
$host = <STDIN>;
if ($host eq "\n") {
$host = "www.hoge.ac.jp/img/";
} else {
chomp($host);
}
print "What is filename? ";
$name = <STDIN>;
chomp($name);
print "What is file type? (default=jpg) ";
$typ = <STDIN>;
if ($typ eq "\n") {
$typ = "jpg";
} else {
chomp($typ);}
print "What is first number? (default=1) ";
$i = <STDIN>;
if ($i eq "\n") {
$i = 1;
} else {
chomp($i);}
print "What is last number? (default=52)" ;
$m = <STDIN>;
if ($m eq "\n") {
$m = 52;
} else {
chomp($m);}
open(FILE, ">list");
while ($i < $m+1) {
printf(FILE "%s%s%s%02d%s%s%s", "http://", $host, $name, $i++, ".", $typ, "\n");
}
close(FILE);


33 :名無しさん@お腹いっぱい。:2001/01/12(金) 01:15
>>32
ファイル名の数字が 1-52形式 ならいいが、01-52形式 だったら駄目だな。

34 :うひひ:2001/01/12(金) 08:58
>>33
1-52とは裏本だね(うひひ
なぜすべての本が52P構成かアンダーグラウンドの割にすごい結束だ
任意の業界団体でもあるのではないかと知人の出版社社長にたずねたこ
とがある。
答えは8枚単位で原盤をおこすので8の倍数が一番無駄がないんですと
なら48?
表紙は紙質が変わるので別扱いだそうで48+4の52Pなんだそうです。

ちなみに広告や能書きのたぐいを一切載せずに表紙まで使って純粋な写真集
に仕上がっているアノ本は究極の本ではないだろうか


35 :名無しさん@お腹いっぱい。:2001/01/12(金) 10:04
>>33
じゃあ、こうしよう。

print "What is first number? (default=1) ";
$i = <STDIN>;

if($i =~ /^0/){
$flag=1;
}

if ($i eq "\n") {
$i = 1;
} else {
chomp($i);}
print "What is last number? (default=52)" ;
$m = <STDIN>;
if ($m eq "\n") {
$m = 52;
} else {
chomp($m);}
open(FILE, ">list");
while ($i < $m+1) {

$num = $i;
if($flag){
$num =~ s/^(.)$/0$1/;
}

printf(FILE "%s%s%s%s%s%s%s", "http://", $host, $name, $num, ".", $typ, "\n");

$i++;

}
close(FILE);

36 :35:2001/01/12(金) 10:07
てゆーか
wgetだけで出来るだろ。

recursive指定してdepthを1にして、拡張子はjpgのみ。
多少ゴミも拾うかもしれんが、こっちの方が楽じゃない?

37 :名無しさん@お腹いっぱい。:2001/01/12(金) 12:49
世の中 recursive ではできないこともあるのさ、ベイベー。


38 :名無しさん@お腹いっぱい。:2001/01/12(金) 17:50
たとえば俺が自慰時に愛用している「桃色美少女ギャラリー」
http://www.jp-sex.com/sousyu.html)は画像乱れ打ち系ソフト
では連続ゲットできないようちょっとした仕掛けがしてあって、こ
れは perl やら ruby やらでスパッと書いてやらねば駄目なのだ。

39 :名無しさん@お腹いっぱい。:2001/01/12(金) 21:07
エロじゃないけど、日付が入ったファイル名の場合はどうしてる?
diary20010112.htmlみたいなのを根こそぎゲットするときとか。

40 :名無しさん@お腹いっぱい。:2001/01/13(土) 00:35
>>38
そのスクリプトちょーだい (はーと

41 :名無しさん@お腹いっぱい。:2001/01/13(土) 01:54
>>39

日付関係の便利なライブラリがある言語を使えばいいと思う
(RubyとかJavaとか)が、即席でCでジェネレータを書いてみた。
ただし仕様は限りなく手抜き。
日付フォーマット変えたいときはPRINTFMTをstrftime(3)で
指定可能な適当なものに変更してくれ。

#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <time.h>

#define PRINTFMT "%Y%m%d"

int gendate(const char *from, const char *to)
{
  const char *fmt = "%d%c%d%c%d";
  int i, y, m, d;
  char junk[2];
  struct tm local;
  time_t secs[2];
  char buff[24];
  const char *p;

  memset(&local, 0, sizeof(local));

  for (i = 0; i < 2; ++i) {
    p = i ? to : from;
    if (sscanf(p, fmt, &y, &junk[0], &m, &junk[1], &d) != 5) {
      fprintf(stderr, "Invalid date format: %s\n", p);
      return 2;
    }
    local.tm_year = y - 1900;  /* XXX */
    local.tm_mon = m - 1;
    local.tm_mday = d;
    secs[i] = mktime(&local);
    if (secs[i] == -1) {
      fprintf(stderr, "Can't handle date: %s\n", p);
      return 2;
    }
  }

  while (difftime(secs[0], secs[1]) <= 0) {
    strftime(buff, sizeof buff, PRINTFMT, localtime(&secs[0]));
    puts(buff);
    secs[0] += 60 * 60 * 24;
  }
  return 0;
}

int main(int argc, char **argv)
{
  if (argc < 3) {
    fprintf(stderr, "usage: %s from to\n", argv[0]);
    return 1;
  }
  return gendate(argv[1], argv[2]);
}



42 :名無しさん@お腹いっぱい。:2001/01/13(土) 02:02
>>38
たしかに、しゃらくさい HTML をしてるね。

43 :名無しさん@お腹いっぱい。:2001/01/13(土) 03:23
>>41
おおすごい。cで来ましたか。
なんか妙に有用なスレになってるな、ここ。(藁

44 :名無しさん@お腹いっぱい。:2001/01/13(土) 14:04
名スレage

45 :名無しさん@お腹いっぱい。:2001/01/14(日) 01:53
ところでPGFってよく聞くんですが、なんですか? URLとか教えてください。
って板違いか...

私は emacs 上で、M-% とか矩形カットアンドペースト(C-x r k、C-x r y)とか
使いまくってリストを作り、reget に喰わせてます。
スクリプトなりemacs上で、対話に答えるとリストのテキストを吐いてくれるような
物を作ったら便利だなと思っているんだけど、結局やっていない。

46 ::2001/01/14(日) 02:41
皆様のご協力により非常に便利なスクリプトを手にすることができ悦びの悲鳴を上げております。
スクリプトの勉強との両立ができてうれしい限りです。引き続き、
関係者・御賢者の方々には今後ともUNIXの「パーソナルユース」化
にご協力いただければと思います。
取り急ぎお礼まで。

>45
PGFについては下記URLをご覧ください。
http://members.tripod.com/pgf_daisuki

47 :???????????????B:2001/01/14(日) 03:36
>>45
> emacs 上で、M-% とか矩形カットアンドペースト(C-x r k、C-x r y)

スレ違い失礼。C-w と ESC-w があるように、矩形領域を
kill ring に保存するだけ、のってないかなぁ。

# C-x r k して undo はちょっとヤダ。


48 :名無しさん@お腹いっぱい。:2001/01/14(日) 04:15
>>47
register にコピーすればいいじゃん。
C-x r C-h してみればいろいろでてくるよ。
C-x r r とか C-x r s とか

49 :名無しさん@お腹いっぱい。:2001/01/14(日) 09:39
>>38
これってリファラあたりをみてんのかな。
鬱陶しいね。

50 :名無しさん@お腹いっぱい。:2001/01/14(日) 13:43
Referrer見てるだけならまだかわいいもんさ。
wgetだってReferrer設定できるし。
スポンサーをクリックして飛んだ先で画像URLが表示されるよーな
やつはかな〜り鬱陶しい。


51 :名無しさん@お腹いっぱい。:2001/01/14(日) 14:14
>>46
Linuxのねすけで見られないよ。
作った奴はマカーだね。

52 :名無しさん@お腹いっぱい。:2001/01/14(日) 14:40
>51
それじゃこっちを見てくれ。

http://www.mainichi.co.jp/digital/netfile/jamjam/9902/16-3.html

流出しているらしい。

53 :名無しさん@お腹いっぱい。:2001/01/14(日) 15:29
>>51
>作った奴はマカーだね。

FrontPage使ってるし、漢字コードはSJIS。
おもきしWinnerだ。ヴォケ。

54 :名無しさん@お腹いっぱい。:2001/01/14(日) 22:59
Winner WInner WINner


55 :>>51:2001/01/15(月) 01:22
おらのねすけではみれたぞ

56 :名無しさん@お腹いっぱい。:2001/01/15(月) 01:39
wget でクッキー食べれますか?

57 :>56:2001/01/15(月) 02:45
食えるわけねぇだろ。ハゲが。

58 :名無しさん@お腹いっぱい。:2001/01/15(月) 03:17
>>56
食べれるよ。cookie なら。

>>57
お前ヴァカ (藁

59 :58:2001/01/15(月) 03:19
ヲレがヴァカだ... w3m と wget をカンチガイ...
ウツダシノウ

>>57
ごめんちゃい

60 :教えて君56:2001/01/15(月) 05:29
>>58
ありがとう。
で、どやって食べるんでしょうか?(^^;
infoをcookieでgrepしてもなんもでてこないし…

61 :名無しさん:2001/01/15(月) 05:54
かわいいね。
残念ながら答えの方は俺も知らないんだけd。



62 :名無しさん@お腹いっぱい。:2001/01/15(月) 09:30
Lynxなら喰えるよ。

63 :名無しさん@お腹いっぱい。:2001/01/22(月) 06:23
age

64 :名無しさん@お腹いっぱい。:2001/01/22(月) 07:03
wget ではスペースを含んだ URL や --user-agent を
どうやって指定するのでしょうか?
'や"で囲んでもできませんでした)

65 :名無しさん@お腹いっぱい。:2001/01/22(月) 07:38
スペースのある url って存在するのかどうかはしらんが?
%20 ね。

66 :名無しさん@お腹いっぱい。:2001/01/22(月) 15:41
mozilla06とかだとURL中の改行も送れる。

67 :4きね8:2001/01/23(火) 23:30
K&R 改訂Cエログラミング

68 :1:2001/02/05(月) 02:51
ようやく賢人の方のアドバイスで素晴らしいコレクションとなりつつあるが、
wgetが美人絵ファイルを取ってきてくれない場合があるのだけれど、どうした
ものだろう。

例えば、
ttp://www.sexa.com/kazea/dayc/s000.jpg

wgetに任せていると綺麗なおねえちゃんの写真じゃなくて、変なhtmlファイル
を取ってくる。。。。

どうか賢人の方々のアドバイスをお願いします。

69 :名無しさん@お腹いっぱい。:2001/02/05(月) 03:46
>>1
ブラウザにそのアドレス打ち込んでも
画像表示されないぞ。
gtm や reget もどき使えよ。

70 :?????????????¨???¢?????¢?B:2001/02/05(月) 03:56
.wgetrcに
header = Referer: http://www.sexa.com/kazea/dayc/
を書いとけばOKだ。

71 :1:2001/02/05(月) 22:47
>70さん

ありがたいです。ようやく美女にgetするができました。

ところで、その呪文はどういう意味があるのですか?
後学のために教えてくれませんか。

>69
一旦、ここを経由してくれ。
http://www.sexa.com/kazea/dayc/day.htm

72 :69:2001/02/05(月) 23:15
>>1
見れましたが、残念ながら私の好みではありませんでした。

Refer ってのはどこからのアクセスかチェックしている。
Refer以外からのアクセスを禁止している。
68や69で画像を直接見れなかったのが、正にそれです。
んでもって、オプションでReferを設定すると
見れるようになります。

通常Referが設定されているのは
アダルトページやWareズといったページです。
要するに直リンク禁止です。
わかりました?

73 :1:2001/02/05(月) 23:28
>シックスナイン様

わかり易い解説、多謝です。

お礼代わりに、以下のURLを出発点にしてお好みのPGF美人を探りあててください。

ttp://www.am25.com/sojou/

74 :名無しさん@お腹いっぱい。:2001/02/06(火) 00:55
getしたエロ画像を保存するのに最適と思われるディレクトリ名


75 :名無しさん@お腹いっぱい。:2001/02/06(火) 01:14
xxx

76 :名無しさん@お腹いっぱい。:2001/02/06(火) 07:19
collection
ero


77 :名無しさん@お腹いっぱい。:2001/02/06(火) 11:33
誰か wget を flushget みたく
ファイルを分割して持ってくるようにした人いないですか?
あったらすっげぇよさそう。

78 :名無しさん@お腹いっぱい。:2001/02/06(火) 23:53
>>74
...

79 :名無しさん@お腹いっぱい。:2001/02/07(水) 04:18
>>74
/dev/rimage あたりかがみつかりにくくてよろしいかと。

80 :名無しさん@お腹いっぱい。:2001/02/07(水) 04:46
ero.img

81 :名無しさん@お腹いっぱい。:2001/02/07(水) 12:47
>>74
/mnt
普段はなんかマウントしとけ

82 :名無しさん@お腹いっぱい。:2001/02/07(水) 13:24
>>81
賢い。

83 :名無しさん@お腹いっぱい。:2001/02/10(土) 02:49
./.xxx

84 :名無しさん@お腹いっぱい。:2001/02/14(水) 13:10
エロ画像閲覧に使えるソフトやスクリプトがあれば教えてくれ。
EEって、スライドショー機能は付いていなかったよね?

85 :名無しさん@お腹いっぱい。:2001/02/14(水) 14:48
>>84
qiv はどうか
chbg を Window モードで動かすのもよいだろう

86 :名無しさん@お腹いっぱい。:2001/02/14(水) 23:38
>>78
一瞬ゴルゴかと思った。
mkdirしてみてなるほど。

87 :名無しさん@お腹いっぱい。:2001/02/15(木) 01:00
>>84
GQviewも試してみ。

88 :名無しさん@お腹いっぱい:2001/02/15(木) 14:51
mkdir  <-- 全角スペースn個
ls しても出ん、正に透明、どうよ?

89 :sage:2001/02/15(木) 19:40
>>88
$ls -F $B$5$l$k$H(B/($B%9%i%C%7%e(B)$B$,I=<($5$l$F$7$^$$$^$9!#(B
$B99$K%j%9%H$N@hF,$KI=<($5$l$k$N$G$P$l$P$l$G$9!#(B


90 :名無しさん@お腹いっぱい。:2001/02/15(木) 21:21
肛門マーク * とか。

# mkdir \*


91 :名無しさん@お腹いっぱい。:2001/02/17(土) 17:20
まずばれないよ
cd /usr/sbin
rm reboot
mkdir reboot
chmod 700 reboot

92 :名無しさん@お腹いっぱい。:2001/02/20(火) 20:12
lajfoauf:wp

93 :名無しさん:2001/02/20(火) 21:37
どんなセキュリティーねたよりも何よりも人を必死にさせるエロねたって一体・・・

94 :PGFコンプリート記念age:2001/02/27(火) 02:42
2chの皆様のご協力により、標記のようにPGF全168シリーズを無事コンプリートすることができました。

ご協力頂いた無数の2chの賢者の方々に御礼申し上げます。

95 :名無しさん@お腹いっぱい。:2001/02/27(火) 02:59
エロ画像のフルダウンロードですか。好きですね。

実は、自動backup機能がある、RAID5 NFSファイルサーバにエロ画像
1Gぐらいためてたんだが、ファイル消してもbackupフォルダに残って
るんだよ。backupはreadonlyで消したいんだが消せないんだ。管理者
に見つかったらどうするべ?



96 :>94:2001/02/27(火) 14:48
アドレス教えて

97 :名無しさん@お腹いっぱい。:2001/02/27(火) 16:41
>>95
管理者を抱きこむ
管理者を殺す
クラックする

…識者のレス待ちですかなぁ。

98 :>96:2001/02/27(火) 16:51
私は下記URLのリンクなどをたどって、かき集めました。
ttp://www.jansweb.dk/jp/pgf/series.asp
ttp://pgf.fucu.com/pgf/index.htm

このスレ立ち上げたのが1月10となっているから苦節50日ですかね。

99 :名無しさん@お腹いっぱい。:2001/02/27(火) 17:07
Winで連番リスト作るのにエクセル使ってるよ。

100 :96:2001/02/27(火) 18:38
>98
あり♪

>99
Winでいいならiriaが一発でやってくれる。
ワレザーが作った文化の恩恵にあずかれます。

101 :99@お腹いっぱい。:2001/02/28(水) 11:30
>>100
Iriaで展開できない名前の時のみ使ってるですよ。

102 :100:2001/02/28(水) 19:08
>101
そんなのあるの?

103 :101:2001/02/28(水) 21:49
盂蘭盆サイトとか…、Iriaのお約束を知らない土人詩サイトとか…。

104 :名無しさん@お腹いっぱい。:2001/04/20(金) 00:23
あげ

105 :名無しさん@お腹いっぱい。:2001/04/20(金) 00:27
14歳です。長さ太さこの年齢でどうですか?評価お願いします。

http://216.101.214.102/souko/pic_post3/image/1172.jpg




106 :名無しさん@お腹いっぱい。:2001/04/20(金) 06:15
>>105
まあ普通ってとこだろう。
しかし毛がずいぶんとひ弱な感じだな。
つかお前のふとももには毛が生えてないのか?

107 :名無しさん@お腹いっぱい。:2001/04/20(金) 16:09
gtmを使う私は軟弱もの。
toolメニューに連番機能があります。numeric downloadね。

http://gtm.sourceforge.net/

108 :名無しさん@お腹いっぱい。:2001/04/22(日) 00:05
aria 使えば?

109 :名無しさん@Emacs:2001/04/22(日) 23:06
wgetで
http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
このページうまく落とすことが出来ますか?
なぜかimage/comp_angle1.jpgからimage/comp_angle6.jpgがうまく落とせないのですけど・・・

110 :名無しさん@お腹いっぱい。:2001/04/22(日) 23:58
>>109
# wget http://www.lares.dti.ne.jp/~lupan/pk/image/comp_angle1.jpg
--23:55:15-- http://www.lares.dti.ne.jp/%7Elupan/pk/image/comp_angle1.jpg
=> `comp_angle1.jpg'
www.lares.dti.ne.jp:80 に接続しています... 接続しました!
HTTP による接続要求を送信しました、応答を待っています... 200 OK
長さ: 18,463 [image/jpeg]

0K -> .......... ........ [100%]

23:55:19 (6.53 KB/s) - `comp_angle1.jpg' を保存しました [18463/18463]


111 :名無しさん@Emacs:2001/04/23(月) 00:08
>>110
いやいや直接jpgをurlに指定するのでは無くたとえば
wget -r -l2 http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
とかでjpgファイルも一緒に落としてくれるとおもったんだけど・・・

112 :名無しさん@お腹いっぱい。:2001/04/23(月) 20:01
覚書。
wget --header=REFERER: "http://www.hogehoge.com/index.html" http://www.hogehoge.com/ero.jpg
wget -r -A .jpg http://www.hugohugo.com/gallary/hoge.html

113 :名無しさん@Emacs:2001/04/23(月) 23:38
いやいや
wget -r -l1 http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
wget -r -l1 http://www.lares.dti.ne.jp/~lupan/pk/photoexpo99.html
この2つで
photoexpo99.htmlはjpgファイルを落としてくれるけど
comp_angle.htmlはjpgファイルを落としてくれないのです.--referer=設定してもだめ
<IMG SRC="...">のタグは落としてくれるけど<IMAGE SRC="...">のタグは落とせないのでしょうか?

もしかして私はとんでもない勘違いをしてる?

114 :名無しさん@お腹いっぱい。:2001/04/24(火) 09:21
>>113
<IMAGE> ってなんだ?


115 :名無しさん@お腹いっぱい。:2001/04/24(火) 10:07
IMGSRC はね、キャッスル.jp.FreeBSD.ORGがあるデザイン会社
ですね。おとしたらMLが配送されなくてこまります。

116 :名無しさん@Emacs:2001/04/24(火) 17:10
結局html.cのhtmlfindurl()に{ "image", "src" }を追加する事により
解決した.

117 :名無しさん@お腹いっぱい。:2001/05/04(金) 12:25
挙げ

118 :なまえをいれてください:2001/05/04(金) 23:09
普通にcshで
wget http.../ecchi{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg
でできるんだけど…。
うちのcshってふつうじゃないんだろか???
たまにはこんなこともする。
echo wget http.../ecchi{"{0,2,4,6,8}","{1,3,5,7,9}"}.jpg\ \& | csh
極悪?

119 :もしもの為の名無しさん:2001/05/07(月) 10:38
【1】何分だいぶ昔に作ったものをまだ使っていて
可変数引数を使っていないあたりが当時の厨房ぶりの象徴ですが、
printf() の引数フォーマットをそのまま使えていろいろ使えます。それを
(1)例えば【2】みたいなんで落としてネスケで開いてページを編集→保存とか、
(2)同様に wget を使ったスクリプトを吐き出して勝手に落としてもらうか
と、そんな感じで私はやっておりますが。
※to ってコマンドが【1】をコンパイルしたもの。

【1】
#include <stdio.h>
#include <stdlib.h>
#include <string.h>

main(argc,argv)
int argc;
char *argv[];
{
int i,start,end,tmp,st;
char form[1024];

if(argc < 3){
printf("Usage: %s start end [\"format\"]\n",argv[0]);
exit(-1);
}

start = atoi(argv[1]);
end = atoi(argv[2]);
if(start < end)
st = 1;
else
st = -1;

if(argc > 3)
sprintf(form,"%s\n",argv[3]);
else
sprintf(form,"%sd\n","%");

for(i=start;i*st<=st*end;i+=st)
printf(form,i,i,i,i,i,i,i,i,i,i,i,i);

exit(0);
}

【2】
#!/bin/csh -f

foreach i (01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22)
to 1 50 '<img src="http://making001.japannudes.net/jgirl'"$i"'/%03d.jpg" width=64 heisht=48>'
end


120 :名無しさん@お腹いっぱい。:2001/05/07(月) 15:24
なんだかんだで perl で oneliner 書いて | wget -i - な感じだ.



121 :名無しさん@お腹いっぱい。:2001/05/18(金) 04:15
あげ

122 :名無しさん@お腹いっぱい。:2001/05/18(金) 08:21
あるディレクトリから下にあるファイルのみとってくるなんてこと、できるのかな?
先輩方、よろしくお願いします。

123 :名無しさん@お腹いっぱい。:2001/05/18(金) 10:45
>>122
フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」
FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「
alias wgetports 'wget --proxy=on --force-directories
--no-host-directories --directory-prefix=. --cut-dirs=4
--passive-ftp --recursive --level=1
ftp://hogehoge/path/to/ports/\!*'
、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ
、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」
、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ

124 :名無しさん@お腹いっぱい。:2001/05/18(金) 11:35
>>122
wgetで--no-parentを指定すれ。

125 :名無しさん@お腹いっぱい。:2001/05/19(土) 15:08
象を一気にダウンロード

126 :名無しさん@お腹いっぱい。:2001/05/20(日) 13:19
面倒くさいので
wget -r http://www.ero.com なんですけど・・・
56kでも2,3時間ほっとけばそれなりおちてくるし

127 :名無しさん@お腹いっぱい。:2001/05/20(日) 20:02
>>126
ちったー、設定しろ


128 :名無しさん@お腹いっぱい。:2001/05/26(土) 05:10
age


129 :名無しさん@お腹いっぱい。:2001/06/15(金) 16:24
最近、どうよ。

130 :名無しさん@お腹いっぱい。:2001/07/03(火) 01:35
ICHでH画像全部消えた。
まあ、俺の心の中にバッファされてるが。

131 :名無しさん@お腹いっぱい。:2001/07/03(火) 04:31
ageないの?

132 :名無しさん@そうだドライブへ行こう:2001/07/03(火) 04:48
perl の magical increment をつかえ。

133 :厨房:2001/07/03(火) 10:40
#!/bin/sh
b=10
c=1
d=Z

while test $b -lt 21
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j
pg
b=`expr $b + 1`
done
while test $c -lt 10
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c.
jpg
c=`expr $c + 1`
done

134 :名無しさん@お腹いっぱい。:2001/07/05(木) 13:55
つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、
かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの
を取って来て、なおかつ、連番で保存ってどおよ。

135 :名無しさん@お腹いっぱい。:2001/07/06(金) 21:31
wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか?
http://www.classicalarchives.com/bach.html

上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。

136 :名無しさん@お腹いっぱい。:2001/07/07(土) 19:28
なんかwget1.7ってmakeが失敗するんだけどなんでかな。
ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。
おとなしく1.6を使ってろ、ってことかな。

137 :名無しさん@Emacs:2001/07/08(日) 00:49
wget1.7おれはmake出来たよ

でも-kオプションってうまく働いてない気がする.
ついでにSSLもうまくいかん.

138 :名無しさん@お腹いっぱい。:2001/07/10(火) 00:48
とりあえずこの話題に関しては
まずこのサイトを見ないと始まらないと
思われ。
ツールもそろってるし
http://members.tripod.co.jp/casinoA1/

139 :名無しさん@お腹いっぱい。:2001/08/21(火) 12:32
age

140 :名無しさん@お腹いっぱい。:2001/08/22(水) 02:14
bashでときどき
for i in `seq -w 0 52`; do wget http://..../aaa$i.jpg; done
とか
while read i; do wget $i; done
とかやるね。後者はMozillaからURLコピーしまくる。

こういう感じの使い捨てスクリプト書いてたけど
あんまり使わなかった。標準入力からURLを入力するだけで
000〜そのURLの番号まで全取得してくれるはずなんだけど。

#!/bin/bash
while read url; do
if [ -z "$url" ]; then next; fi
eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')'
for i in `seq -w 0 ${url[1]}`; do
wget ${url[0]}$i.jpg
done
done

GNU/Linuxシステムじゃないと動かんカモ。

141 :名無しさん@お腹いっぱい。:2001/08/22(水) 12:34

集めたあとの整理はどうしてるよ?

wgetとかでとってくると
www9.smutserver.com/teen/sex1000/tgp/*.jpg
のようにディレクトリが深くていやーん。

どうでもいいけど。

142 :名無しさん@お腹いっぱい。:2001/08/23(木) 04:24
$ find . -type f -name \*.jpg -exec mv {} . \;
$ rm -r */

とでもしてカレントディレクトリに移せば?

143 :名無しさん@お腹いっぱい。:2001/08/23(木) 05:28
>>141
-nd つかえば?
-nHでも一つ減る。

144 :名無しさん@お腹いっぱい。:2001/08/23(木) 10:01
ネタはくだらないくせに妙に為になるよ、このスレ(藁

145 :名無しさん@お腹いっぱい。:2001/08/23(木) 13:45
>>141
俺は URL そのままにしてるよ。
利点は
* 連番系をあとで補間できる
* サイトを割り出せる
* 2ch で紹介しやすい :-)
* そもそもユニークなファイル名を付けるのが面倒

146 :名無しさん@お腹いっぱい。:2001/08/23(木) 15:16
$ mkdir symlinks
$ find . -type f -name \*.jpg -exec ln -sf {} symlinks \;

これはどーだ?

147 :sage:2001/08/23(木) 15:42
sage

148 :名無しさん@お腹いっぱい。:2001/08/23(木) 16:33
おなにーするときはどうするんですか?

find . -name '*.jpg' | xargs xv -wait 2 -random

でいいですか? (藁

149 :名無しさん@お腹いっぱい。:2001/08/23(木) 17:00
>>148
こーいうときに威力を発揮するのが仮想画面だったりするのよね.
1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え.

1600x1200 いいぜ :D

# スレ的には失格なネタ

150 :名無しさん@お腹いっぱい。:2001/08/23(木) 17:13
俺はGQviewがお気に入り。
サムネイル画像を表示させておき、
最後は全画面表示にして逝く
下品でスマソ

151 :名無しさん@お腹いっぱい。:2001/08/24(金) 02:14
tarやzipを読めるviewerってない?
微妙にスレ違いだが、inode消費が気になる....

152 :名無しさん@お腹いっぱい。:2001/08/24(金) 03:07
キーボードで楽に使える viewer ないかな。
ノートPCなのでほとんどキーボードでやってるんだが、
画像表示だけは GQview で仕方なくトラックボールを
しこしこやってる。

153 :名無しさん@お腹いっぱい。:2001/08/24(金) 03:17
>>151
こんなのはいかが?
http://enfle.fennel.org/

154 :名無しさん@お腹いっぱい。:2001/08/24(金) 03:53
>>153

Susie Plug-in にも対応してるんですね
(・∀・)イイ!

155 :名無しさん@お腹いっぱい。:2001/08/24(金) 23:39
>>152
いまだに xv を愛用しています。快適。

156 :名無しさん@お腹いっぱい。:2001/08/25(土) 00:14
>>141
> 集めたあとの整理はどうしてるよ?
種類ごとにディレクトリほって、symlink してる。
めんどうだけど。

画像見ながら分類したいな。
なんかいいツールない?
Nautilus か?

157 :152:2001/08/25(土) 01:51
>>155
おーサンキュ。xv ってキーボードで操作できるんだ。
non-free だから今まで敬遠してたけど、使ってみよう。

158 :名無しさん@お腹いっぱい。:2001/08/25(土) 02:24
>>157
最初はキーボードの操作を覚えるのがちょっと大変かもしれん。
最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。

159 :名無しさん@お腹いっぱい。:2001/08/25(土) 04:44
>>158
FLMaskパッチに感動したのも懐かしいなあ。
今はもう動画ばっかりだ。

関係ないけど「璃樹無」分割って単なるsplitだったんだね。
気づく前はこれだけのためにWIN立ち上げてたYO。

160 :名無しさん@お腹いっぱい。:2001/08/25(土) 10:11
どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、
HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。

今では、うちに背景画像配信サーバーが立っていたりする…

161 :名無しさん@お腹いっぱい。:2001/08/25(土) 11:45
例えば、
ttp://www.xxx81.com/jp
にリンクされている、rmファイルを一気にすべてダウンロード
するなんてperlなどで出来るの化な?

162 :tori:2001/08/25(土) 12:02
internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント
現在事業所の計算機をグローバルアドレスにするには、Router
使っています。このNATをルーターでは無く、Solaris で行うには
どうすればいいでしょうか?

163 :名無しさん@お腹いっぱい。:2001/08/25(土) 12:07
>>162
H画像を落とすためにか?

164 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:00
>>161
そのページに14個のサンプルがあるけど、そのこと?
それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。

165 :名無しさん@Emacs:2001/08/25(土) 13:06
>>161
htmlからリンク先を抽出したいということですか?

166 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:13
q , ,
q /( )`
q \ \___ / |
q /- _ `-/ '
q (/\/ \ \ /\
q / / | ` \
q O O ) / |
q `-^--'`< '
q (_.) _ ) /
q `.___/` /
q `-----' /
q <----. __ / __ \
q <----|====O)))==) \) /====
q <----' `--' `.__,' \
q | |
q \ / /\
q ______( (_ / \______/
q ,' ,-----' |
q `--{__________)
q

167 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:14
.................,........,
................/(........)`
................\.\___.../.|
.............../-._..`-/..'
..............(/\/.\.\.../\
.............././...|.`....\
..............O.O...)./....|
..............`-^--'`<.....'
.............(_.).._..).../
...............`.___/`..../
................`-----'./
...<----......__./.__...\
...<----|====O)))==).\)./====
...<----'....`--'.`.__,'.\
................|........|
.................\......./......./\
............______(.(_../.\______/
.........,'..,-----'...|
.........`--{__________)

168 :名無しさん@お腹いっぱい。:2001/08/25(土) 13:15
...................................................,........................,
................................................/(........................)`
................................................\...\___........./...|
............................................./-..._......`-/......'
..........................................(/\/...\...\........./\
........................................../.../.........|...`............\
..........................................O...O.........).../............|
..........................................`-^--'`<...............'
.......................................(_...)......_......)........./
.............................................`...___/`............/
................................................`-----'.../
.........<----..................__.../...__.........\
.........<----|====O)))==)...\).../====
.........<----'............`--'...`...__,'...\
................................................|........................|
...................................................\...................../...................../\
....................................______(...(_....../...\______/
...........................,'......,-----'.........|
...........................`--{__________)

169 :名無しさん@お腹いっぱい。:2001/08/25(土) 14:32
モナーフォント無しで見られる親切設計だ。
NetBSD デーモンかな?

170 :名無しさん@お腹いっぱい。:2001/08/26(日) 00:58
00000000000000000000000

171 :161:2001/08/26(日) 01:07
>165
その通りです。
インターネットNinja(Window)らしき事を
Unix系OS上(特にperl)で実現したいのです。
可能でしょうか。


>162
あなた、
Solaris教えてスレッド 其の弐 (826)
の方へ書き込んだつもりでしょう。

私もその失敗、経験済みです。

172 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:14
>>171
Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、
慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。

173 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:23
grep して sed >> list して (これを何回かやって) wget -i list

174 :173:2001/08/26(日) 01:24
ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…

175 :普段は エロ系:2001/08/26(日) 01:32
凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い
で PGF 一応全タイトルと WAVファイル持ってます
1さん
でも 簡単に 入手するより きっと 過程が楽しいのでしょうね
皆様 凄いわ!

176 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:44
過程なんか楽しくねーよ。

177 :名無しさん@お腹いっぱい。:2001/08/26(日) 01:51
過程 "も" 楽しい。

178 :普段は エロ系:2001/08/26(日) 01:53
あ そうなの(^^;;

179 :名無しさん@お腹いっぱい。:2001/08/26(5) 29:00
「インターネットニンジャじや、一発じゃ。」
と無粋な流れを無視したコメントを残しておく。

(そして反発を買う。)  ワクワク・・・・うふ。





                                           ラブ。

180 :では反発:2001/08/26(5) 31:00
sed で複数 html からリスト作って wget で取得の方が遥かに早いです

181 :180:2001/08/26(5) 32:00
ていうか、書き込み時刻がめちゃくちゃだな

182 :名無しさん@お腹いっぱい。:2001/08/26(5) 34:00
こここれは??

183 :名無しさん@お腹いっぱい。:2001/08/26(5) 34:00
32:00って_________?

184 :test:2001/08/26(5) 43:00
test

185 :名無しさん@お腹いっぱい。:2001/08/26(5) 44:00
やっぱおかしいな

186 :名無しさん@お腹いっぱい。:2001/08/26 06:02
だめ?

187 :名無しさん@Emacs:01/08/26 09:17
test

188 :名無しさん@Emacs:01/08/26 09:18
自治age

189 :名無しさん@お腹いっぱい。:01/08/26 11:59
27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ
  ◎
  ┣−-┓
  |AGE|
  ┣−-┛
  |
  |
 Λ|Λ
(・∀・)イイ!
(    )
|  つ |
(__)_)

190 :名無しさん@Emacs:01/08/26 13:17
perlのモジュール使ってhtmlからリンク先を抽出するのは
どうやればいいんですか?

191 :名無しさん@お腹いっぱい。:01/08/26 13:23
>>190
wgetでできるだろうがスカポンタン

192 :名無しさん@お腹いっぱい。:01/08/26 13:28
やり方はいろいろあると思うが HTML::Parser モジュールを使うと
XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A>
の XXXXX の部分を抜きだせるはず

193 :名無しさん@Emacs:01/08/26 13:33
>>191
wgetで出来るとは知りませんでした。調べてみます。
再帰転送のことではないですよね?

194 :名無しさん@お腹いっぱい。:01/08/26 15:10
httpgetというスクリプトがあって、
それで再帰的にリンク先のファイルを取得できるみたいよ。
まあwgetでいいわけだけど。
参考にしてみれば?

195 :名無しさん@Emacs:01/08/26 16:38
>>194
httpget取って来て見てみました。
確かにリンクを抜き出す関数がありました。感謝です。

196 : :01/09/05 22:02 ID:ssMW8tkM


197 :名無しさん@お腹いっぱい。:01/09/06 07:42 ID:t/5EHQk.
rtsp://hoge.hoge/stream.rm のストリーミングビデオを
ファイルに落とすのはどうすればいい?

198 :名無しさん@お腹いっぱい。:01/09/06 12:12 ID:RQop.hqE
>>197
http で落とせたような気がする

199 :名無しさん@お腹いっぱい。:01/09/16 11:54
age

200 :名無しさん@お腹いっぱい。:01/09/17 23:34
正直言って、zsh と wget で大抵の事は出来るような気がする。
今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。

201 :犬板:01/09/18 11:14
>>200

じゃぁここはどーやって落すの?
httpだとどっかあさってに吹っ飛ばされるのだが…

http://japanese.asian-house.com/ura/1999-10/Mintshower.html

202 :名無しさん@お腹いっぱい。:01/09/18 12:10
>201
あきらめる。
んで、他のトコから落とす。

203 :名無しさん@お腹いっぱい。:01/09/18 18:19
>201 zsh -c 'wget --referer=http://japanese.asian-house.com/ura/1999-10/ japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'

204 :名無しさん@お腹いっぱい。:01/09/18 18:20
間違えた。{01..52}ね。

205 :名無しさん@Emacs:01/09/18 23:48
refferer

206 :名無しさん@お腹いっぱい。:01/09/27 05:19
for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH http://210.155.134.217/phpdmm/m/mdc${i}/mdc${i}jp-${j}.jpg; done ; done
ハァハァ

207 :名無しさん@お腹いっぱい。:01/09/27 22:36
bash$ for n in `seq -f %02g 8 12`
bash$ do
bash$ echo ero$n.jpg
bash$ done

ero08.jpg
ero09.jpg
ero10.jpg
ero11.jpg
ero12.jpg

こんなんどう?

208 :名無しさん@Emacs:01/10/04 01:10
>>207

140で既出

209 :1:01/10/04 01:41
このところ忙しくて裏本リンクサイト見てなかったら数冊の新刊本がでてた。
一冊一冊取ってくるのは面倒なので、寝る前に一括して取ってくるスクリプトを
考えてます。とりあえずそれぞれの連番のリストファイルはlistとして作っておいて、各裏本用のフォルダーをxxx.dirにおいておくとして以下のようなスクリプ
トをつかってます。とりあえずうまくいってますが、サイトが変わるとrefererの
問題などが考えられると思います。皆様のお知恵を拝借したいと思います。

#!/bin/sh
for i in *.dir
do
cd /home/username/urabon/$i
cat list | xargs wget
done

210 :名無しさん@お腹いっぱい。:01/10/04 18:04
>>209
フォルダーと言ってしまったな...

211 :1:01/10/05 00:59
>>210
ばればれ? by Kyon2

212 :名無しさん@お腹いっぱい。:01/10/05 01:21
$ lftp http://www.iy-n.org
lftp> get *.jpg

ってのがまだないな。

213 :(゚o゚):01/10/05 01:59
このサイトはみなさんのインターネット環境の
スピードを計ってくれます。また、遅いと思う
人は設定を少し変えることによって無料で
スピードを早くすることができます。
お金を出す前に一度試してみては
いかがでしょうか。上がりの計測も可能です。

http://cym10262.omosiro.com/

214 :名無しさん@お腹いっぱい。:01/10/05 22:28
>>209
>サイトが変わるとrefererの問題などが考えられると思います。

1さんお帰りなさい。

referer等の情報を保持したリストを読み込めるwrapperを書くのがいいのでは。
reget, getright, iria 等のリストが読み込めると嬉しいっす。

215 :名無しさん@お腹いっぱい。:01/10/05 22:41
>>212
でlftpの威力をはじめて知った。

216 :名無しさん@お腹いっぱい。:01/10/13 09:46
定期age

217 :名無しさん@Emacs:01/10/18 07:14
破損jpegの検索とかできない?

218 :名無しさん@お腹いっぱい。:01/10/18 07:59
>217
i) ImageMagick
$ identiry broken.jpg
identify: Corrupt JPEG data: premature end of data segment (broken.jpg) [No such file or directory].
broken.jpg JPEG 510x750 DirectClass 8-bit 5120b 0.1u 0:01

ii) libjpeg
$ djpeg broken.jpg >/dev/null
Premature end of JPEG file

nonzero statusで死ぬ分djpegの方が便利かも。

219 :名無しさん@Emacs:01/10/19 02:22
>218 サンキュ

for I ;do
for J in `find "$I" -iname \*.jpg` ;do
djpeg "$J" >& /dev/null || wget -xc -T30 -t0 "$J"
done
done

220 :名無しさん@お腹いっぱい。:01/10/24 01:13
djpeg 使うのなら、jpegtran も便利。それなりに修復してくれる。

for i in *.jpg; do
jpegtran $i > h || mv -v h $i
done

51 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50


read.cgi ver 05.05 2022/08/31 Walang Kapalit ★
FOX ★