设为首页 收藏本站
查看: 1006|回复: 0

[经验分享] 海量数据的二度人脉挖掘算法(Hadoop 实现)

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-6-6 11:41:42 | 显示全部楼层 |阅读模式
   最近做了一个项目,要求找出二度人脉的一些关系,就好似新浪微博的“你可能感兴趣的人” 中,间接关注推荐;简单描述:即你关注的人中有N个人同时都关注了 XXX 。

     在程序的实现上,其实我们要找的是:若 User1 follow了10个人 {User3,User4,User5,... ,User12}记为集合UF1,那么 UF1中的这些人,他们也有follow的集合,分别是记为: UF3(User3 follow的人),UF4,UF5,...,UF12;而在这些集合肯定会有交集,而由最多集合求交产生的交集,就是我们要找的:感兴趣的人。

     我在网上找了些,关于二度人脉算法的实现,大部分无非是通过广度搜索算法来查找,由于深度已经明确了2以内;这个算法其实很简单,第一步找到你关注的人;第二步找到这些人关注的人,最后找出第二步结果中出现频率最高的一个或多个人,即完成。

     但如果有千万级别的用户,那在运算时,就肯定会把这些用户的follow 关系放到内存中,计算的时候依次查找;先说明下我没有明确的诊断对比,这样做的效果不一定就不如 基于hadoop实现的好;只是自己,想用hadoop实现下,最近也在学;若有不足的地方还请指点。


     首先,我的初始数据是文件,每一行为一个follow 关系 ida+‘\t’+idb;表示 ida follow idb。其次,用了2个Map/Reduce任务。

Map/Reduce 1:找出 任意一个用户 的 follow 集合与 被 follow 的集合。如图所示:

代码如下:

     Map任务: 输出时 key :间接者 A 的ID ,value:follow 的人的ID 或 被follow的人的ID

01         public void map(Text key, IntWritable values, Context context) throws IOException,InterruptedException{
02             int value = values.get();
03             //切分出两个用户id
04             String[] _key = Separator.CONNECTORS_Pattern.split(key.toString());
05             if(_key.length ==2){
06                 //"f"前缀表示 follow;"b" 前缀表示 被follow
07                 context.write(new Text(_key[0]), new Text("f"+_key[1]));
08                 context.write(new Text(_key[1]), new Text("b"+_key[0]));
09                  
10                  
11             }
12         }

     Reduce任务: 输出时    key :间接者 A 的ID , value为 两个String,第一个而follow的所有人(用分割符分割),第二个为 被follow的人(同样分割)

01         protected void reduce(Text key, Iterable<TextPair> pairs, Context context)
02          throws IOException,InterruptedException{
03             StringBuilder first_follow = new StringBuilder();
04             StringBuilder second_befollow = new StringBuilder();
05              
06             for(TextPair pair: pairs){
07                 String id = pair.getFirst().toString();
08                 String value = pair.getSecond().toString();
09                 if(id.startsWith("f")){
10                     first_follow.append(id.substring(1)).append(Separator.TABLE_String);
11                 } else if(id.startsWith("b")){
12                     second_befollow.append(id.substring(1)).append(Separator.TABLE_String);
13                 }
14             }
15              
16             context.write(key, new TextPair(first_follow.toString(),second_befollow.toString()));
17         }

     其中Separator.TABLE_String为自定义的分隔符;TextPair为自定义的 Writable 类,让一个key可以对应两个value,且这两个value可区分。



Map/Reduce 2:在上一步关系中,若B follow A,而 A follow T ,则可以得出 T 为 B 的二度人脉,且 间接者为A ,于是找出 相同二度人脉的不同间接人。如图所示:

代码如下:

     Map 任务:输出时 key 为 由两个String 记录的ID表示的 二度人脉关系,value 为 这个二度关系产生的间接人的ID

01     public void map(Text key, TextPair values, Context context) throws IOException,InterruptedException{
02            //Map<String, String> first_follow = new HashMap<String, String>();
03            //Map<String, String> second_befollow = new HashMap<String, String>();
04            //String _key = key.toString();
05            String[] follow = values.getFirst().toString().split(Separator.TABLE_String);
06            
07            String[] befollow = values.getSecond().toString().split(Separator.TABLE_String);
08            
09            for(String f : follow){
10                for(String b : befollow){
11                     //避免自己关注自己
12                    if(!f.equals(b)){
13                        context.write(new TextPair(f.getKey() ,b.getKey()), new Text(key));
14                    }
15                }
16            }
17      }


     Reduce任务:输出时 key 仍然为二度人脉关系, value 为所有间接人 的ID以逗号分割。

01     protected void reduce(TextPair key, Iterable<Text> values, Context context)
02         throws IOException, InterruptedException {
03         
04         StringBuilder resutl = new StringBuilder();
05         for (Text text : values){
06             resutl.append(text.toString()).append(",");
07         }
08         
09         context.write(key, new Text(resutl.toString()));
10     }

     到这步,二度人脉关系基本已经挖掘出来,后续的处理就很简单了,当然也可以基于二度人脉挖掘三度,四度:)

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-20280-1-1.html 上篇帖子: Hadoop读写过程详细代码 下篇帖子: Hadoop学习总结之四:Map-Reduce的过程解析
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表