使用PXF HDFS连接器读取Avro格式数据。本节描述如何使用PXF访问HDFS中的Avro数据,包括如何创建和查询引用HDFS中Avro文件的外部表。

先决条件

在尝试从HDFS读取或向HDFS写入数据之前,请确保已满足PXF Hadoop先决条件

使用Avro数据

Apache Avro是一个数据序列化框架,其中的数据都以压缩二进制格式序列化。Avro在Json中指定数据类型。 Avro格式数据具有独立的模式, 这也在Json中定义。 Avro模式及其数据完全是自描述的。

数据类型映射

Avro支持原生数据类型和复杂数据类型。

要在Greenplum数据库中表示Avro原生数据类型,请将数据值映射到相同类型的Greenplum列。

Avro支持复杂数据类型数组(array), 映射(map), 记录(record), 枚举(enumeration)以及固定长度类型(fixed type)。 将这些复杂数据类型的顶层字段映射为Greenplum数据库的 TEXT类型。虽然Greenplum本身并不支持这些类型,您可以创建Greenplum数据库函数或应用程序代码来提取或进一步处理这些复杂数据类型的子部件。

下表总结了Avro数据的外部映射规则。

Avro数据类型PXF/Greenplum 数据类型
booleanboolean
bytesbytea
doubledouble
floatreal
intint or smallint
longbigint
stringtext
复杂类型: Array, Map, Record, or Enumtext, 并在集合项、映射的键值对和记录数据之间插入分隔符。
复杂类型: Fixedbytea
并集对于原始数据类型或复杂数据类型,遵循上述约定,具体取决于并集;支持Null值。

Avro 模式和数据

Avro 模式使用json定义,由上面数据类型映射部分中的原生类型和复杂类型组成。Avro 模式文件通常具有.avsc后缀。

Avro模式文件中的字段是通过对象数组定义的,每个对象都由名称和类型指定。

创建外部表

使用hdfs:avro配置文件读取HDFS中的Avro格式数据,以下语法创建了引用该配置文件的可读外部表:

  1. CREATE EXTERNAL TABLE <table_name>
  2. ( <column_name> <data_type> [, ...] | LIKE <other_table> )
  3. LOCATION ('pxf://<path-to-hdfs-file>?PROFILE=hdfs:avro[&<custom-option>=<value>[...]]')
  4. FORMAT 'CUSTOM' (FORMATTER='pxfwritable_import');

CREATE EXTERNAL TABLE命令中使用的特定关键字和值见下表中描述。

关键字
<path‑to‑hdfs‑file>HDFS数据存储中目录或文件的绝对路径
PROFILEPROFILE关键字必须指定为hdfs:avro.
SERVER=<server_name>PXF用于访问数据的命名服务器配置。可选的; 如果未指定,PXF将使用default服务器。
<custom‑option><custom-option>描述见下方
FORMAT ‘CUSTOM’hdfs:avro配置文件中使用FORMAT ‘CUSTOM’CUSTOM FORMAT 要求您指定为 (FORMATTER=’pxfwritable_import’)

对于复杂数据类型,PXFhdfs:avro配置文件在集合项和值之间插入默认分隔符。您可以通过指定在CREATE EXTERNAL TABLE命令中指定hdfs:avro自定义选项来使用非默认分隔符。

hdfs:avro配置文件支持以下

选项关键字描述
COLLECTION_DELIM当PXF将Avro复杂数据类型映射到文本列时,放置在顶层数组、映射或记录字段中的条目之间的分隔符。默认为逗号,字符。
MAPKEY_DELIM当PXF将Avro复杂数据类型映射到文本列时,放置在映射项的键和值之间的分隔符。默认为冒号:字符。
RECORDKEY_DELIM当PXF将Avro复杂数据类型映射到文本列时,放置在字段名称和记录条目之间的分隔符。 默认为冒号:字符。

示例:读取Avro数据

本节中的示例将对具有以下字段名称和数据类型模式的Avro数据进行操作:

  • id - 长整型
  • username - 字符串
  • followers - 字符串数组
  • fmap - 长整型映射
  • relationship - 枚举类型
  • address - 由街道号码(整型)、街道名称(字符串)、以及城市(字符串)组成的记录类型

创建模式

执行以下操作创建一个Avro模式,以表示上述模式。

  1. 创建一个名为avro_schema.avsc的文件:

    1. $ vi /tmp/avro_schema.avsc
  2. 将以下文本复制并粘贴到avro_schema.avsc中:

    1. {
    2. "type" : "record",
    3. "name" : "example_schema",
    4. "namespace" : "com.example",
    5. "fields" : [ {
    6. "name" : "id",
    7. "type" : "long",
    8. "doc" : "Id of the user account"
    9. }, {
    10. "name" : "username",
    11. "type" : "string",
    12. "doc" : "Name of the user account"
    13. }, {
    14. "name" : "followers",
    15. "type" : {"type": "array", "items": "string"},
    16. "doc" : "Users followers"
    17. }, {
    18. "name": "fmap",
    19. "type": {"type": "map", "values": "long"}
    20. }, {
    21. "name": "relationship",
    22. "type": {
    23. "type": "enum",
    24. "name": "relationshipEnum",
    25. "symbols": ["MARRIED","LOVE","FRIEND","COLLEAGUE","STRANGER","ENEMY"]
    26. }
    27. }, {
    28. "name": "address",
    29. "type": {
    30. "type": "record",
    31. "name": "addressRecord",
    32. "fields": [
    33. {"name":"number", "type":"int"},
    34. {"name":"street", "type":"string"},
    35. {"name":"city", "type":"string"}]
    36. }
    37. } ],
    38. "doc:" : "A basic schema for storing messages"
    39. }

创建Avro数据文件(JSON)

执行以下步骤来创建符合上述模式的示例Avro文件。

  1. 创建一个名为pxf_avro.txt的文本文件:

    1. $ vi /tmp/pxf_avro.txt
  2. pxf_avro.txt中输入以下数据:

    1. {"id":1, "username":"john","followers":["kate", "santosh"], "relationship": "FRIEND", "fmap": {"kate":10,"santosh":4}, "address":{"number":1, "street":"renaissance drive", "city":"san jose"}}
    2. {"id":2, "username":"jim","followers":["john", "pam"], "relationship": "COLLEAGUE", "fmap": {"john":3,"pam":3}, "address":{"number":9, "street":"deer creek", "city":"palo alto"}}

    示例数据使用逗号,分隔顶层字段,并使用冒号: 分隔键-值对以及记录字段和值.

  3. 将文本文件转换为Avro格式文件。有多种方法可以通过编程方式和通过命令行转换。在这个例子中,我们使用Java Avro toolsavro-tools-1.8.1.jar jar文件放置在当前目录中:

    1. $ java -jar ./avro-tools-1.8.1.jar fromjson --schema-file /tmp/avro_schema.avsc /tmp/pxf_avro.txt > /tmp/pxf_avro.avro

    生成的Avro二进制文件被写入/tmp/pxf_avro.avro

  4. 将生成的Avro文件复制到HDFS:

    1. $ hdfs dfs -put /tmp/pxf_avro.avro /data/pxf_examples/

使用hdfs:avro配置文件查询

执行以下来创建和查询引用您在上一节添加到HDFS的pxf_avro.avro文件。创建表时:

  • 使用PXF默认服务器。
  • 将顶层原生字段id (长整型)和username(字符串类型)映射到其等效的Greenplum的数据库类型(bigint和text)。
  • 将剩下的复杂类型映射为text类型
  • 使用hdfs:avro配置文件的自定义选项设置记录(record)、映射(map)和集合(collection)的分隔符
  1. 使用hdfs:avro配置文件从pxf_avro.avro文件创建可查询外部表:

    1. postgres=# CREATE EXTERNAL TABLE pxf_hdfs_avro(id bigint, username text, followers text, fmap text, relationship text, address text)
    2. LOCATION ('pxf://data/pxf_examples/pxf_avro.avro?PROFILE=hdfs:avro&COLLECTION_DELIM=,&MAPKEY_DELIM=:&RECORDKEY_DELIM=:')
    3. FORMAT 'CUSTOM' (FORMATTER='pxfwritable_import');
  2. pxf_hdfs_avro表执行简单查询:

    1. postgres=# SELECT * FROM pxf_hdfs_avro;
    1. id | username | followers | fmap | relationship | address
    2. ----+----------+----------------+--------------------+--------------+---------------------------------------------------
    3. 1 | john | [kate,santosh] | {kate:10,santosh:4} | FRIEND | {number:1,street:renaissance drive,city:san jose}
    4. 2 | jim | [john,pam] | {pam:3,john:3} | COLLEAGUE | {number:9,street:deer creek,city:palo alto}
    5. (2 rows)

    外部表的简单查询显示了复杂数据类型的组成部分,这些组成部分由CREATE EXTERNAL TABLE中指定的分隔符分隔。

  3. 根据您的应用程序处理文本列中被分隔的部分。例如,以下命令使用Greenplum数据库内部的string_to_array函数将followers字段中的条目转换为新视图中的文本数组列。

    1. postgres=# CREATE VIEW followers_view AS
    2. SELECT username, address, string_to_array(substring(followers FROM 2 FOR (char_length(followers) - 2)), ',')::text[]
    3. AS followers
    4. FROM pxf_hdfs_avro;
  4. 根据特定的关注者是否出现在视图中来执行查询并过滤行:

    1. postgres=# SELECT username, address FROM followers_view WHERE followers @> '{john}';
    1. username | address
    2. ----------+---------------------------------------------
    3. jim | {number:9,street:deer creek,city:palo alto}