Entry

OMC

手が空いたのでキャラケットのイラストを描いています。描こう描こうと思ってて出すのは初になりますね。反応どんな感じなんでしょう?誰も買ってくれなかったら寂しいですが、そういうのも含めて楽しみです。
もうちょっとなので頑張る…。


ダンガンロンパを1のみですけど今頃プレイしてみました。PSPで…(VITA持ってないです)。面白くて一気にクリアしました。ゲームも久々ですが、クリアするのも久々;;キャラかわいいしイラスト描きたくなりますね♪セレスさんかなあ?と公式イラスト見つつ。

ギャラリー更新

OMCで作成したイラストをギャラリーに掲載しました。
納品から1ヶ月近く経ってしまいましたが、ようやく仕事の方が落ち着いたのでサイト更新しました。

ソフトを1から10まで全部SAIで制作という今までないことをやってみましたが、慣れるにつれて使いやすさが分かってきて、購入当時に後悔したのが嘘みたいです。逆にPainter使わなくなってますね…Painter好きなんですけどね…。

サイトは他の所も色々更新したいです。一気に変えようとすると全部作り直しのようになるのが難しいところですね。

アイコン

ファイル 285-1.gif

前作ったのが2009年だったはず、と思いサンプル更新。
前回サンプルのリンクはこちら↓。2011年でした。同じキャラのリメイク…結構変わるものですね。

http://www.autumn-forest.com/cgifile/diary025/index.cgi?no=141

雑記:BootCampの安定性について思うことなど

関連記事:BootCamp設定について
http://www.autumn-forest.com/cgifile/diary27n/index.cgi?no=166

「Windowsを使うなら通常のWindowsマシンの方が安定しているのは当たり前」
という意見を見たことがありますが、これは嘘です。私はOSの安定性に依存するんじゃないかと思っています。

WindowsXP(Mid2008モデル BootCamp2.0)の場合はWIndowsXPのマシンよりもVistaのマシンよりもずっと安定していてPCとして最高でした。
XPがいかに優れたOSだったかということだと思いますが、加えて当時のMacコンピューターの能力や安定性もWindowsPCとは比較になりませんでしたし(BootCampドライバーが優れているとはいいません)。
※※追記:PC性能については自宅にあったWin5機(うちノートPCは2機)、Mac2機を比較しての感想です。

ただし、Windows7をメインに使う場合にはWindowsユーザーなら素直にWindowsのPCを買うことをおすすめします。OSについてレジストリやシステムの知識があり、自分でメンテナンスできることが必須かと思います(BootCamp4.0ではそれ位不安定です)。前PCがあまりにも素晴らしかったのでそれを信じてBootCampにしましたが、MSサポートフル活用で調整したにも関わらずWin7が使い物にならなくてMacユーザーになりつつあります(笑)

結論:WinOSを使うならXPが最高(今から導入はサポート期間があと1年ちょっとなのでお勧めしませんが)。別にBootCampに限ったことではないですけどね。


最近やっとBootCamp3.0(OS10.6インストールディスクに同梱)を手に入れたので、BootCampバージョンをダウングレードして3.3を試してみようと思います。アップデートが3回出ている分だけ4.0よりはまともなはず。

今日知りました

ファイル 207-1.gif

とあるサイトでの解説を見て初めて知りました。
2年半使っていますがね、Intuos4。初期設定では筆圧感知設定1024なのだそうです。2048にするのに設定変更しないとならないという…。

去年の12月からはずっと全てMacで作業しているのだけど、Macはこの表示が無くて、それは2048で設定出来ているってことでしょうか???
そういえばIntuos5が出ましたが、この筆圧感知機能は4と変更ないようなので見送りです。大幅に機能上昇だとすると考えた方がいいでしょうけど、うーんて感じです。

______

そして今はソフトのショートカットを覚え中。今更遅いんだけどこのままだといつまでたっても覚えられないままなので。
時間短縮に必須なスキル(というほどのものでもない)と分かってましたが、いざ使ってみると全然違う。もっと早くやるべきでした。タブレットと併用で相当便利になりますね。


追記
Macでは設定なしでも自動的に2048になっているそうです。というより1024の設定がないというのか…。ともかくきちんと設定出来ていて良かったです。

.htaccessの話 ーgooglebot対策で

ここの日記やギャラリーなどのページはセキュリティ対策のために時々アドレスをかえていますが、なぜかなくなったページを探そうとgooglebotがしつこく訪問。数秒おきに来て1つのファイルに1日700~1000アクセスし、エラーログに大量に跡を残してログを荒らして回るので困ってました。

何度来てもページはないのに404が何度出ようが一向に訪問回数が減る様子もなし。そろそろ対策した方が良いのかな…とやってみたことまとめ。役に立つのか分かりませんが、googlebotで困ったときの参考に。
(無視できる程度なら害はないので無視で良いと思います。今回アクセス数が多すぎでログが使い物にならなくなるほどだったので対策してみました。)

その1. googleで登録削除の要請をする

googleにログインし、webマスターツールを使用して削除申請をします。
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=164734

結論から言うと、あっさりと挫折しました。
お世話になっているのにこういうのもなんだけど、勝手に回ってきて登録していくくせに、登録解除するのにgoogleでアカウントを作らなければ申請できない仕組みなんですね。しかも削除後にもう一度回ってきて再登録してしまうことも珍しくないようで、効果はそれほど期待できないようです。

その2. robots.txtをルートディレクトリ直下に設置。

テキストファイルでrobots.txtというファイルを作ります。
そこにロボットがファイルをアクセスしないように記述をします。googlebot指定もできるし、全てのロボット対象に書くこともできます。
http://support.google.com/webmasters/bin/answer.py?hl=ja&answer=156449&topic=2370588&ctx=topic

記述の仕方はこんな感じ。
_______

User-agent: *
Disallow: /diary/

User-Agent: Googlebot
Disallow: /diary/
_______

「*」マークは全てのロボットに対応という意味。下の例はgooglebotのみに対して対応する場合の記述方法。ここでは/diary/というフォルダへのアクセスを禁止しています。ファイルは/から始まる絶対パスで上の例をURLで表すと http://www.example.com/diary/ となります。
ファイルを置く場所はルートディレクトリ直下。分かりやすく言うと、http://www.example.com/robots.txt というアドレスになるようにします。ロボットはrobots.txtを探してファイルが有ればその指示に従ってくれます、理屈の上では。
ただどうも解説サイトを見ていると素直にその指示に従ってくれるロボットはそれほど多くないようで、googlebot対策ならこれでもいけるよ、ということらしいです。

結果失敗。逆に訪問回数が増えて、これまで1日1000回程度だったのが2000回近くになりました。
robots.textで記述するファイルは、ファイルが存在していることが前提となるため、googlebotに「ファイルは見つからないけど実は有るんだよ」と教えているようなものかもしれません。


ちなみに、今回ファイルがないのでrobots.txtを置きましたが、各ファイルにメタタグを記述して、
___

meta name="robots" content="no index"
___

と入れる方が確実かと思います(アクセス禁止ではなく、登録禁止の意味なので厳密には少し違います)。これも無視するロボットもあるんですが、巡回回数それほど多くないし、私はこれを入れてギャラリーの登録をブロックしていますが割と効果あると思います(完全ではありません)。

その3. .htaccessを設定。

.htaccessを設定すると特定のファイルにアクセスしたときに、サーバからアクセスした人にメッセージを返すことが出来ます。一般的にはアクセス制限に使われることが多いですね。

「404 Not Found」(ページが見つかりません)を何度繰り返しても訪問をやめない場合は「410 Gone」(ファイル消滅)を返すとページがなくなったことを分かってくれるようです。
※参考サイト様
http://www.suzukikenichi.com/blog/how-to-set-up-410-gone/

.htaccessは「.」で始まるファイルのため、「.htaccess.txt」を作ってtxtファイルで記述し、サーバにアップしたあと名前変更で「.txt」を削除します(…でいいはず)。ファイル名は必ず「.htaccess」でなければいけません。
設置場所は目的のファイルがあるディレクトリ直下が一番いいです(それが含まれればどこでもいいですが、.htaccess以下のディレクトリ全てに適用されるので必要ないところまで制限がかかることになります)。
_____

Redirect gone /diary/
_____

上の例でURLがhttp://www.example.com/diary/とすると、ファイルの場所はルートディレクトリ直下、つまりhttp://www.example.com/.htaccessというアドレスになります。(サブディレクトリに置く場合などの記述方法は解説サイトでご確認ください。)

※参考サイト様
http://mikeneko.creator.club.ne.jp/~lab/web/htaccess/redirect.html#Redirect


結果。設置した途端攻撃みたいに出ていたエラーログが止まりました。凄い、効果抜群。ちなみに、後で見たら410 Goneが1000回出てました。…アクセスは懲りずにやってたみたいですが、ログは荒らされないのでこれで一安心です。

_______


結論。.htaccessを使えば実際には存在するページでも404を返したり、301 Moved Permanentry(ページ移動)を返すことも出来るかと思いました(ただしrobots.txtと違ってロボットだけでなく一般訪問者にも表示されてしまいますのでご注意を)。これで防げればいいのですが、本当にしつこいので410を返すのが最も早い方法かと思います。登録削除もしてくれると思うので上の私のように削除申請方法で不満に思った人はこの方法を使っても良いかもしれません。

以上、googlebot対策でした。
相変わらずの素人対応ですが、ご参考になれば幸いです。

Page

Utility

Calendar

< 2018.9 >
S M T W T F S
- - - - - - 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 - - - - - -

Profile