HDFS Connector

此连接器提供了一个槽(Sink),将分区文件写入Hadoop文件系统(Hadoop FileSystem)支持的任何文件系统。要使用此连接器,请将以下依赖项添加到您的项目中:

<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-connector-filesystem_2.10</artifactId>
  <version>1.3-SNAPSHOT</version>
</dependency>

请注意,流(Streaming)连接器当前不是二进制分发的一部分。有关如何将程序与程序库打包以进行集群执行的信息,请参阅 here

分桶(Bucketing)文件槽(Sink)

分桶(Bucketing)行为以及写入操作均可被配置,我们稍后将会介绍。此处将了解如何创建一个分桶的槽(bucketing sink),默认情况下,会将槽(sink)配置到按时间分割的滚动文件:

DataStream<String> input = ...;

input.addSink(new BucketingSink<String>("/base/path"));
val input: DataStream[String] = ...

input.addSink(new BucketingSink[String]("/base/path"))

唯一必需的参数是存储桶(buckets)的基本路径。可以通过指定自定义的bucketer,writer和batch大小来进一步配置槽(sink)。

默认情况下,当有元素写入(elements arrive)时,分桶的槽(bucketing sink)将根据当前的系统时间分离,并使用日期时间格式"yyyy-MM-dd--HH"来命名这些桶(buckets)。此格式将传递给具有当前系统时间的SimpleDateFormat以形成桶(bucket)路径。每当出现新的日期时,都会创建一个新的桶(bucket)。例如,如果您有一个包含以分钟作为最细粒度的格式,您将每分钟获得一个新的桶(bucket)。每个桶(bucket)本身是一个包含几个局部(part)文件的目录:每个并行实例的槽(sink)将创建自己的局部(part)文件,当局部(part)文件变得太大时,槽(sink)将在其他局部(part)文件旁边再创建一个新的局部(part)文件。当桶(bucket)变得不活跃时,被打开的局部(part)文件将被刷新并关闭。当最近没有写入操作时,桶(bucket)将被视为不活跃。默认情况下,槽(sink)每分钟检查一次不活跃的桶(bucket),并关闭一分钟内没有写入操作的所有桶(bucket)。可以在BucketingSink上使用setInactiveBucketCheckInterval()setInactiveBucketThreshold()

您也可以使用BucketingSink上的setBucketer()指定自定义的bucketer。 如果需要,bucketer可以使用元素(element)或元组(tuple)的属性来确定桶(bucket)目录。

默认的writer是StringWriter。这将在传入的元素(elements)上调用toString(),并将它们写入局部(part)文件,用换行符分隔。 要在BucketingSink上指定一个自定义的writer,请使用setWriter()。如果要编写Hadoop序列文件(Hadoop SequenceFiles),可以使用系统提供的SequenceFileWriter其可被配置为使用压缩(compression)。

最后一个配置选项是批量大小。 这指定何时应该关闭局部(part)文件并启动一个新的局部(part)文件。 (默认局部(part)文件大小为384 MB)。

示例:

DataStream<Tuple2<IntWritable,Text>> input = ...;

BucketingSink<String> sink = new BucketingSink<String>("/base/path");
sink.setBucketer(new DateTimeBucketer<String>("yyyy-MM-dd--HHmm"));
sink.setWriter(new SequenceFileWriter<IntWritable, Text>());
sink.setBatchSize(1024 * 1024 * 400); // this is 400 MB,

input.addSink(sink);
val input: DataStream[Tuple2[IntWritable, Text]] = ...

val sink = new BucketingSink[String]("/base/path")
sink.setBucketer(new DateTimeBucketer[String]("yyyy-MM-dd--HHmm"))
sink.setWriter(new SequenceFileWriter[IntWritable, Text]())
sink.setBatchSize(1024 * 1024 * 400) // this is 400 MB,

input.addSink(sink)

将创建一个写入到遵循该模式(schema)的桶(bucket)文件的槽(sink):

/base/path/{date-time}/part-{parallel-task}-{count}

其中date-time是从日期/时间格式获取的字符串,parallel-task是并行槽(sink)实例的索引,count是根据批量大小而创建的局部(part)文件的运行数。

更多详细信息,请参阅 JavaDoc for BucketingSink.