1.第一次写东西啊
第一次在ITeye上面写blog,心情无比激动哈,虽然技术不咋滴,但是也为了记录自己这段时间学习hadoop遇到并解决的各种各样的问题,和大家分享一下一下自己的一些小经验,也留作以后的一个笔记吧!
2.windows下hadoop下载和安装
网上有很多关于hadoop在不同平台下面安装和运行开发的文章,我在这里就不赘述了,我的hadoop版本是1.0.3,开发环境是windows XP(就因为是XP给我遇到了各种各样悲催的问题啊),eclipse3.6.1,下载hadoop在eclipse上面的插件(在下载的hadoop的源码的\src\contrib\eclipse-plugin目录下面是eclipse插件的源码,自行编译打包生成jar以后,放到eclipse的pulgins目录下就可以了,附上我正常运行的eclipse的hadoop插件,hadoop-eclipse-plugin-1.0.3.jar )
3.hadoop mapReduce datajoin
Bloom Filter 是一种空间效率很高的随机数据结构,它利用位数组很简洁地表示一个集合,并能判断一个元素是否属于这个集合。Bloom filter的主要优势在于它的大小(比特位个数)为常数且在初始化时被设置。增加更多的元素到一个Bloom filter不会增加它的大小。它仅增加误报的概率。但是这个概率非常小。Bloom filter原理介绍
hadoop在join操作的时候,主要有四种join方式,
3.1,reduce侧连接
mr程序处理两个文件,两个文件名称分别为aaa.txt和bbb.txt,map程序会DataJoinMapperBase这个类,为数据源设定对应的tag(tag一般为文件的文件名,对于数据结构相同,但是拆分后的文件,比如aaa.txt拆分成aaa_1.txt和aaa_2.txt,那么tag就为aaa),设定数据源联结关联的key,在reduce程序会对相同联结键的所有记录一起处理,reduce()通过解包得到原始记录,以及根据标签所得到的记录的数据源。在reduce侧执行联结的操作,其中datajoin包实现了主要的联结操作
3.2,基于DistributedCache的复制联结
当联结多个数据源的时候,可以选取其中较小的一个数据源放到内存中,我们可以通过较小的数据源复制到所有mapper,在mapper侧实现联结,以实现效率上的极大提高。第一步,当配置作业时,你可以调用静态方法DistributedCache。addCachefile()来设定要传播到所有节点上的文件,第二部,在每个单独TaskTracker上的mapper会调用静态方法DistributedCache.getLocalCacheFiles()获取数组本地副本所在的本地文件的路径(我曾多次测试过,在你eclipse插件连接上你的hadoop环境的时候,会默认给你设置一些配置参数,这些配置参数都是相对路径,如果在windows下面开发,会默认创建在你项目所在盘符的根目录,所以你获取到的url不能直接读取,很悲剧,只有手动加上当前项目保存的盘符路径)
3.3,半联结:map侧过滤后在reduce侧联结
如果较小的数据源仍不能放到内存中,那么可以将较小的数据源的键全部取出来新建一个保存键列表的文件,在map阶段,使用DistributedCache将key值文件复制到各个TaskTracker上,去除不需要的或者不对应的数据源中的key值列表,剩下的操作和reduce侧连接相同了。
3.4,reduce侧联结+Bloom filter
在某些情况下,侧联结抽取出来的小表的key集合在内存中仍然存放不下,这时候可以使用BloomFiler以节省空间。
后面会有详细描述
关于hadoop mapReduce join的更详细的介绍参考这里:hadoop mapReduce join
4.关于reduce侧联结和Bloom filter的开发详细介绍
4.1 实现 Bloom filter
Bloom filter的实现在概念上非常直观,它的内在表现为一个m比特位的数组,我们有k个独立的散列函数,这里每个散列函数的输入为一个对象,而输出为介于0和m-1之间的一个整数,我们使用这个输出的整数作为位数组的索引。
当有一个对象到来时,我们如要检查它是否已经被加入到Bloom filter中,则使用在添加对象时相同的k个散列函数来生成一个位数据的索引。假设所有的比特数组值在所有的情况下都为0,即不存在,那么生成的索引对应的值如果为1,代表存在,返回true,为0,代表不存在,返回false。这里没有漏报,只有当两个对象生成的比特值相同时可能存在误报,但是在reduce侧会舍弃这些误报的数据。
import java.io.DataInput; import java.io.DataOutput; import java.io.IOException; import java.security.MessageDigest; import java.util.BitSet; import java.util.Random; import org.apache.hadoop.io.Writable; public class BloomFilter2<E> implements Writable{ private BitSet bf; private int bitArraySize = 100000000; private int numHashFunc = 6; public BloomFilter2(){ bf = new BitSet(bitArraySize); } public void add(E obj){ int[] indexes = getHashIndexes(obj); for(int index : indexes){ bf.set(index); } } public boolean contains(E obj){ int[] indexes = getHashIndexes(obj); for(int index : indexes){ if(!bf.get(index)){ return Boolean.FALSE; } } return Boolean.TRUE; } protected int[] getHashIndexes(E obj){ int[] indexes = new int[numHashFunc]; long seed = 0; byte[] digest; try { MessageDigest md = MessageDigest.getInstance("MD5"); md.update(obj.toString().getBytes()); digest = md.digest(); for(int i = 0;i < numHashFunc;i++){ seed = seed ^ (((long)digest[i] & 0xFF)) << (8*i); } } catch (Exception e) { e.printStackTrace(); } Random rdm = new Random(seed); for(int i=0;i<numHashFunc;i++){ indexes[i] = rdm.nextInt(bitArraySize); } return indexes; } public void union(BloomFilter2<E> other){ bf.or(other.bf); } @Override public void readFields(DataInput in) throws IOException { int byteArraySize = (int) (bitArraySize / 8); byte[] byteArray = new byte[byteArraySize]; in.readFully(byteArray); for(int i=0;i<byteArraySize;i++){ byte nextByte = byteArray[i]; for(int j=0;j<8;j++){ if(((int)nextByte & (1<<j)) != 0){ bf.set(8*i+j); } } } } @Override public void write(DataOutput out) throws IOException { int byteArraySize = (int) (bitArraySize / 8); byte[] byteArray = new byte[byteArraySize]; for(int i = 0;i<byteArraySize;i++){ byte nextElement = 0; for(int j = 0;j<8;j++){ if(bf.get(8*i+j)){ nextElement |= 1 << j; } } byteArray[i] = nextElement; } out.write(byteArray); } }
这是摘自hadoop in action书上的Bloom filter的实现,在两个集合的合并的时候,会采用union()方法做巧妙的实现,每个mapper根据自己的数据分片构造一个Bloom filter,我们再把这些这些 Bloom filter发送到一个单一的reducer上,将它们归并且记录最终的输出,
由于Bloom filter会随着mapper的输出被打乱,Bloom filter类必须实现wirtable接口,它包括wirter()和readFileds()方法,这些方法实现了在内部的BitSet表示和一个字节数组的转换,从而让这些数据可以被序列化到DataInput/DataOutput.
4.2 基与Bloom filter 的mapreduce程序
看过上面的代码以后,大家就应该很清楚mapreduce程序的实现了吧,在map程序中,实例化一个BloomFilter类变量,每次map方法中,都将key值添加到BloomFliter中
bloomfilter.add(key.toString());
重写父类的close方法(只有在hadoop0.2版本以前有),如果是更高端的版本需要用cleanup(context)方法替代,在这个方法中,将bloomfilter输出。
在reduce代码中,也需要重写父类的configuer(0.2版本以后是setup())和close()(cleanup())方法,以及reduce方法
定义一个全局的jobconf(0.20以后context获取)变量,在configuer方法中初始化job对象,在reduce方法中最数据联结,bloomFliter.union(value);在close()方法中将联结后的记录输出。
可能表达的不好,因为这块我没有自定义Bloom filter只是对书上的例子进行了编译,hadoop在0.2.0版本以后有自己实现的Bloom filter类,主要使用的是hadoop自己实现的Bloom filter类。
代码不贴出来了,在hadoop in action这本书上都有,和下面采用hadoop自身实现Bloom filter的maperduce程序有异曲同工之妙。
4.3:基于hadoop自身实现的Bloom filter的mapreduce实现
Bloom filter源码:\src\core\org\apache\hadoop\util 目录下
Bloom filter api:http://hadoop.apache.org/common/docs/r0.20.0/api/org/apache/hadoop/util/bloom/BloomFilter.html#BloomFilter%28int,%20int,%20int%29
定义一个hadoop的Bloom filter,它有两个构造函数,一个无参,一个有参,无参构造函数是为指定reduce函数的输出的时候使用的,我们在mapreduce中需要采用有参的构造函数。
public BloomFilter (int vectorSize, int nbHash, int hashType)
public static final int INVALID_HASH = -1; /** Constant to denote {@link JenkinsHash}. */ public static final int JENKINS_HASH = 0; /** Constant to denote {@link MurmurHash}. */ public static final int MURMUR_HASH = 1; public static int parseHashType(String name) { if ("jenkins".equalsIgnoreCase(name)) { return JENKINS_HASH; } else if ("murmur".equalsIgnoreCase(name)) { return MURMUR_HASH; } else { return INVALID_HASH; }
throw new IllegalArgumentException("filters cannot be and-ed");
throw new IllegalArgumentException("filters cannot be or-ed");
if(filter == null || !(filter instanceof BloomFilter) || filter.vectorSize != this.vectorSize || filter.nbHash != this.nbHash) { throw new IllegalArgumentException("filters cannot be and-ed"); }
一看到这个异常,你就应该知道是因为你的map和reduce类中初始化的Bloom filter不一样啊,赶紧检查一下就ok了,贴一下调用hadoop自身实现的Bloom filter的源码吧:
import java.io.IOException; import java.util.Iterator; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.conf.Configured; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapred.FileInputFormat; import org.apache.hadoop.mapred.FileOutputFormat; import org.apache.hadoop.mapred.JobClient; import org.apache.hadoop.mapred.JobConf; import org.apache.hadoop.mapred.KeyValueTextInputFormat; import org.apache.hadoop.mapred.MapReduceBase; import org.apache.hadoop.mapred.Mapper; import org.apache.hadoop.mapred.OutputCollector; import org.apache.hadoop.mapred.Reducer; import org.apache.hadoop.mapred.Reporter; import org.apache.hadoop.mapred.lib.NullOutputFormat; import org.apache.hadoop.util.Tool; import org.apache.hadoop.util.ToolRunner; import org.apache.hadoop.util.bloom.BloomFilter; import org.apache.hadoop.util.bloom.Key; import org.apache.hadoop.util.hash.Hash; public class HadoopSevenMapperDemo extends Configured implements Tool { public static class MapClass extends MapReduceBase implements Mapper<Text, Text, Text, BloomFilter>{ BloomFilter bloomFilter = new BloomFilter(1000000,6,Hash.JENKINS_HASH); OutputCollector<Text, BloomFilter> ct = null; @Override public void map(Text key, Text arg1, OutputCollector<Text, BloomFilter> output, Reporter arg3) throws IOException { if(ct == null){ ct = output; } System.out.println(key.toString()+"``````````````"); bloomFilter.add(new Key(key.toString().getBytes())); } @Override public void close(){ try { ct.collect(new Text("testKey"), bloomFilter); } catch (Exception e) { e.printStackTrace(); } } } public static class ReduceClass extends MapReduceBase implements Reducer<Text, BloomFilter, Text, Text>{ JobConf job = null; BloomFilter bf = new BloomFilter(1000000,6,Hash.JENKINS_HASH); @Override public void configure(JobConf job) { this.job = job; } @Override public void reduce(Text key, Iterator<BloomFilter> values,OutputCollector<Text, Text> output, Reporter arg3) throws IOException { while(values.hasNext()){ bf.or(values.next()); } } @Override public void close() throws IOException { Path file = new Path(job.get("mapred.output.dir")+"/bloomfilter"); FSDataOutputStream out = file.getFileSystem(job).create(file); bf.write(out); out.close(); } } @Override public int run(String[] arg0) throws Exception { Configuration conf = getConf(); JobConf job = new JobConf(conf,HadoopSevenMapperDemo.class); Path in = new Path("/user/Administrator/input7"); Path out = new Path("/user/Administrator/output7"); FileInputFormat.setInputPaths(job, in); FileOutputFormat.setOutputPath(job, out); job.setJobName("HadoopSevenMapperDemo"); job.setMapperClass(MapClass.class); job.setReducerClass(ReduceClass.class); job.setNumReduceTasks(1); job.setInputFormat(KeyValueTextInputFormat.class); job.setOutputFormat(NullOutputFormat.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(BloomFilter.class); job.set("key.value.separator.in.input.line", ","); JobClient.runJob(job); return 0; } public static void main(String[] args) { int res; try { res = ToolRunner.run(new Configuration(),new HadoopSevenMapperDemo(), args); System.exit(res); } catch (Exception e) { e.printStackTrace(); } } }
大家看到源码中引用的包都是mapred下面的类,那是因为这些类都是0.2.0以前的版本中有的类,1.0.3版本中仍然兼容,如果想用新版本的类,注意引用mapreduce下面的类就好,因为很多类名字没有改变,只是在不同的包下而已
5:参考资料
(1) 书籍《Hadoop In Action》第五章
(2) BloomFilter介绍:http://blog.csdn.net/jiaomeng/article/details/1495500
(3)hadoop mapreduce join :http://xubindehao.iteye.com/blog/1405860
相关推荐
Hadoop下基于朴素贝叶斯的气象数据挖掘研究.pdf
hadoop2.6基于yarn的安装配置
基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书推荐系统源码+数据库.zip基于Hadoop图书...
这是一个基于hadoop的云盘系统,实现的界面是用javaweb完成的,使用的是spring Struts2 hibernate集合框架,配有sql文件。直接导入后运行这是一个基于hadoop的云盘系统,实现的界面是用javaweb完成的,使用的是...
是大数据课程大作业,基于Hadoop的电影影评数据分析,需要安装Hadoop,了解MapReduce 和HDFS。
基于Hadoop的电影推荐系统的设计与实现源码(毕业设计)java+Hadoop,使用Hadoop2.7,jdk1.8;分为前台,后台和推荐三个子系统,可直接运行。sql私信
基于Hadoop的石油大数据平台构建.pdf
基于Kubernetes平台部署Hadoop实践.docx
基于Hadoop的商品推荐系统,以商品推荐为基础,采集分析和分析用户、商品行为数据,以推荐为最终目标。为用户提供智能的个性化推荐服务。本项目采用Hadoop上HDFS集群,通过MapReduce程序对数据进行处理和分析,最后...
基于Hadoop的在线文件管理系统-开题报告.pdf基于Hadoop的在线文件管理系统-开题报告.pdf基于Hadoop的在线文件管理系统-开题报告.pdf基于Hadoop的在线文件管理系统-开题报告.pdf基于Hadoop的在线文件管理系统-开题...
基于hadoop的好友推荐系统 使用 MapReduce 内含系统说明文件
基于Hadoop的物品租赁-基于Hadoop的物品租赁系统-基于Hadoop的物品租赁系统源码-基于Hadoop的物品租赁管理系统-基于Hadoop的物品租赁管理系统java代码-基于Hadoop的物品租赁系统设计与实现-基于springboot的基于...
基于hadoop商品推荐系统课程设计,基于hadoop商品推荐系统课程设计。
1.大数据背景介绍 2. HADOOP体系架构 3. 基于HADOOP的大数据产品分析 4. 基于HADOOP的大数据行业应用分析 5.东软基于HADOOP的大数据应用建议
基于Hadoop的物品租赁-基于Hadoop的物品租赁系统-基于Hadoop的物品租赁系统源码-基于Hadoop的物品租赁管理系统-基于Hadoop的物品租赁管理系统java代码-基于Hadoop的物品租赁系统设计与实现-基于springboot的基于...
针对hadoop生态组件制定的grafana模板,包括hdfs(nn、dn)、yarn(rm、nm)、hbase(hm、rs)、hive、kafka、spark、zookeeper
毕业设计,基于hadoop的云盘系统,技术选型springboot+mysql+layui+hdfs+hbase(未完成)
基于Ubuntu的Hadoop简易集群安装与配置,三台运行于Vmware中的ubuntu14.04系统搭建成简易Hadoop分布式集群,用于之后的大数据学习
基于Hadoop技术的大数据就业岗位数据分析 作者:梁天友 邱敏 来源:《电脑知识与技术》2021年第31期 基于Hadoop技术的大数据就业岗位数据分析全文共10页,当前为第1页。 基于Hadoop技术的大数据就业岗位数据分析全文...
基于Hadoop、Spark的大数据金融信贷风险控系统源码.zip