2011年1月3日月曜日

H2 DatabaseとHadoopでHDFS上のファイルのブロックサイズを返す関数を作成する

H2 DatabaseとHadoopでHDFS上のファイルのブロックサイズを返す関数を作成するには、以下のコードを実行します。

create alias if not exists hdfs_get_block_size as $$ 
import java.io.*;
import java.util.*;
import java.sql.*;
import org.h2.tools.*;
import org.apache.hadoop.conf.*;
import org.apache.hadoop.fs.*;
import java.net.*;
@CODE
Long hdfs_get_block_size(String uri, String path)
throws Exception
{
if( uri == null ){
throw new Exception("uri is not specified.");
}
if( path == null ){
throw new Exception("path is not specified.");
}

FileSystem fs = FileSystem.get(
URI.create(uri), new Configuration());

FileStatus file = fs.getFileStatus(new Path(path));

return new Long(file.getBlockSize());
}
$$


実行例
select 
hdfs_get_block_size('hdfs://192.168.1.81:9000/',
'/opt/hadoop-data/test.txt')
;


※以下のjarをCLASSPATH環境変数に追加
hadoop-common-0.21.0.jar
hadoop-hdfs-0.21.0.jar
log4j-1.2.15.jar

○動作環境
JDK6 Update22, Hadoop 0.21.0, H2 Database 1.2.147 (2010-11-21)

○関連情報
・CentOS5.5にHadoop0.21.0をインストールする
http://serverarekore.blogspot.com/2010/10/centos55hadoop0210.html
・H2 Databaseに関する他の記事はこちらを参照してください。

0 件のコメント:

コメントを投稿