外人分析Facebook的架构

Michaël Figuière是DataStax的软件架构师,他从一些公开的资料分析了最新的Facebook的架构。
转载于quora上回答

从各种资料和会谈中,我所了解的Facebook的架构是:y understanding of Facebook's current architecture is:

  • Web前端使用PHP. Facebook的HipHop编译器[1] 会将它们转换成C++然后使用g++编译,这样就提供了一个高性能的模版和web逻辑执行层(high performance templating and Web logic execution layer)
  • 由于完全依赖静态编译的限制, Facebook已经开始开发一个HipHop的解释程序[2]和HipHop虚拟机,它会将PHP代码转换成HipHop字节码 [3].
  • 业务逻辑使用Thrift包装成服务[4]. 服务可能使用PHP, C++ 或者 Java开发, 也可能有其它语言,这依赖于服务需求
  • 由Java实现的服务并不使用某种企业应用服务器,而是使用Facebook自己定制的应用服务器. 看起来好像是重新发明轮子,但是这些服务通常是使用Thrift暴露或者使用,使用tomcat或者Jetty都太重了
  • 持久化采用MySQL, Memcached [5], Hadoop's HBase [6]. Memcached为MySQL做通用缓存
  • 离线处理使用Hadoop 和 Hive.
  • logging, clicks 和 feeds数据的传输使用Scribe [7]。 这些数据集中存储在HDFS(使用Scribe-HDFS [8]), 因此可以使用MapReduce做扩展分析
  • 自有技术BigPipe [9]用来加速页面的渲染(使用pipelining logic)
  • Varnish Cache [10]用作HTTP网关,由于它的高性能和效率作为他们的首选
  • 数十亿的用户上传的招聘使用Haystack处理。Facebbook开发的一个特别的存储方案。提供底层的优化和append-only writes [12].
  • Facebook消息系统基于自己的架构, 显著利用分片sharding和动态集群管理. 业务逻辑和持久化被封装进一个称之为'Cell'模块. 每个Cell处理一部分的用户; 当用户增加时新的Cell可以加进来[13]. 持久化使用HBase [14].
  • Facebook消息搜索引擎建立在存储在HBase上的反向索引[15]
  • Facebook消息搜索引擎的细节未知
  • 输入提示搜索使用一个定制的存储和检索算法 [16]
  • Chat基于Epoll服务器,使用Erlang开发,通过Thrift访问 [17]
  • 他们还建立了一个自动化的系统,可以对监控警报进行响应,启动一个合适的修补流程或者在无法自动修补的情况下通知人力来修补[18].

关于这些组件使用的资源,一些已知的信息和数据:

  • Facebook估计有超过6万台服务器[18]. 他们的最新的位于Oregon Prineville数据中心使用完全自己设计的硬件[19],这是最近退出的开放计算项目[20].
  • Memcached进程存储了 300 TB的数据 [21]
  • Hadoop/Hive集群由3000台服务器组成,每台服务器8个核, 32 GB 内存, 12 TB硬盘,集群总共2万4千和核, 96 TB内存和36 PB硬盘 [22]
  • 每天1000亿次点击,500亿张照片,3 万亿个对象被缓存, 每天130 TB日志 (2010年7月统计) [22]

[1] HipHop for PHP: http://developers.facebook.com/blog/post/358
[2] Making HPHPi Faster: http://www.facebook.com/note.php?note_id=10150336948348920
[3] The HipHop Virtual Machine: http://www.facebook.com/note.php?note_id=10150415177928920
[4] Thrift: http://thrift.apache.org/
[5] Memcached: http://memcached.org/
[6] HBase: http://hbase.apache.org/
[7] Scribe: https://github.com/facebook/scribe
[8] Scribe-HDFS: http://hadoopblog.blogspot.com/2009/06/hdfs-scribe-integration.html
[9] BigPipe: http://www.facebook.com/notes/facebook-engineering/bigpipe-pipelining-web-pages-for-high-performance/389414033919
[10] Varnish Cache: http://www.varnish-cache.org/
[11] Facebook goes for Varnish: http://www.varnish-software.com/customers/facebook
[12] Needle in a haystack: efficient storage of billions of photos: http://www.facebook.com/note.php?note_id=76191543919
[13] Scaling the Messages Application Back End: http://www.facebook.com/note.php?note_id=10150148835363920
[14] The Underlying Technology of Messages: https://www.facebook.com/note.php?note_id=454991608919
[15] The Underlying Technology of Messages Tech Talk: http://www.facebook.com/video/video.php?v=690851516105
[16] Facebook's typeahead search architecture: http://www.facebook.com/video/video.php?v=432864835468
[17] Facebook Chat: http://www.facebook.com/note.php?note_id=14218138919
[18] Who has the most Web Servers?: http://www.datacenterknowledge.com/archives/2009/05/14/whos-got-the-most-web-servers/
[19] Building Efficient Data Centers with the Open Compute Project: http://www.facebook.com/note.php?note_id=10150144039563920
[20] Open Compute Project: http://opencompute.org/
[21] Facebook's architecture presentation at Devoxx 2010: http://www.devoxx.com
[22] Scaling Facebook to 500 millions users and beyond: http://www.facebook.com/note.php?note_id=409881258919

评论