Apache spark TigerGraph-通过Spark将数据加载到用户定义的元组

Apache spark TigerGraph-通过Spark将数据加载到用户定义的元组,apache-spark,intellij-idea,tuples,graph-databases,tigergraph,Apache Spark,Intellij Idea,Tuples,Graph Databases,Tigergraph,有人能帮我弄清楚如何将数据加载到TigerGraph DB中创建的元组中吗?我已经创建了下面的元组,我正在尝试使用Spark从文件加载数据 图形名称:MyGraph 元组名称:MyTuple MyTuple的属性:IDString(50),DateeDatetime 元组MyTuple作为edge属性被引用到MyGraph的edge(ed_newEdge)中。寻求帮助,了解如何使用Spark将数据加载到MyGraph中的元组。您可以使用tigergraph jdbc驱动程序将数据插入元组。你可以

有人能帮我弄清楚如何将数据加载到TigerGraph DB中创建的元组中吗?我已经创建了下面的元组,我正在尝试使用Spark从文件加载数据

图形名称:MyGraph 元组名称:MyTuple

MyTuple的属性:IDString(50),DateeDatetime


元组MyTuple作为edge属性被引用到MyGraph的edge(ed_newEdge)中。寻求帮助,了解如何使用Spark将数据加载到MyGraph中的元组。

您可以使用tigergraph jdbc驱动程序将数据插入元组。你可以找到一个例子

在遵循上面创建连接的代码之后,您可以使用下面的代码段

try (java.sql.Statement stmt = con.createStatement()) {
      query = "INSERT INTO edge ed_newEdge(Vertex1, Vertex2) VALUES(MyTuple("1d123","2011-02-03 01:02:03"))";
      stmt.addBatch(query);}
或者,您可以在SPARK上处理数据,并在拼花地板或csv文件上序列化数据。然后您可以创建一个GSQL加载作业来读取该文件并将值插入元组

TYPEDEF TUPLE myTuple#定义一个UDT
创建顶点v_udt(id字符串主键,att_udt myTuple)
创建图测试图(v_udt)
为图形测试图形创建加载作业加载udt{
定义文件名f;
将f加载到顶点v_udt值($0,myTuple($1,$2,$3,$4));
#$1作为f1加载,$2作为f2加载,依此类推
}
使用f=“./udt.csv”运行加载作业加载\u udt”
现在您可以使用rest请求调用上面创建的加载作业

TYPEDEF TUPLE <f1 INT (1), f2 UINT, f3 STRING (10), f4 DOUBLE > myTuple   # define a UDT
CREATE VERTEX v_udt  (id STRING PRIMARY KEY, att_udt myTuple)
CREATE GRAPH test_graph (v_udt)
CREATE LOADING JOB load_udt FOR GRAPH test_graph {
    DEFINE FILENAME f;
    LOAD f TO VERTEX v_udt VALUES ($0, myTuple($1, $2, $3, $4) ); 
    # $1 is loaded as f1, $2 is loaded as f2, and so on
}
RUN LOADING JOB load_udt USING f="./udt.csv"