在Spark中连接MySQL数据库有两种方式:
- 使用JDBC连接:
import org.apache.spark.sql.SparkSession
val spark = SparkSession.builder()
.appName("MySQLExample")
.getOrCreate()
val url = "jdbc:mysql://hostname:port/databaseName"
val table = "tableName"
val properties = new Properties()
properties.put("user", "username")
properties.put("password", "password")
val df = spark.read.jdbc(url, table, properties)
df.show()
- 使用MySQL Connector for Apache Spark:
首先需要在spark-submit
命令中添加MySQL Connector的jar包路径:
spark-submit --jars /path/to/mysql-connector-java.jar --class your_class your_jar.jar
然后在代码中使用MySQL Connector连接MySQL数据库:
import org.apache.spark.sql.SparkSession
val spark = SparkSession.builder()
.appName("MySQLExample")
.getOrCreate()
val url = "jdbc:mysql://hostname:port/databaseName"
val table = "tableName"
val properties = new Properties()
properties.put("user", "username")
properties.put("password", "password")
val df = spark.read.format("jdbc")
.option("url", url)
.option("dbtable", table)
.option("user", properties.getProperty("user"))
.option("password", properties.getProperty("password"))
.load()
df.show()
以上是两种连接MySQL数据库的方式,可以根据需要选择适合自己的方法。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 55@qq.com 举报,一经查实,本站将立刻删除。转转请注明出处:https://www.szhjjp.com/n/1019489.html