DBConnect真的很棒,因为我能够在实际数据所在的集群上运行我的代码,所以它非常适合集成测试,但我也希望能够在开发和单元测试期间(pytest
withpytest-park
),简单地使用本地Spark环境。
有没有办法配置DBConnect,所以对于一个用例,我只是使用本地Spark环境,但对于另一个用例,它使用DBConnect?
我的2美分,因为我已经做了几个月这种类型的开发了:
SparkConf(). setMaster(“本地”)
初始化pyspark会话。此外,请注意一些数据库连接的限制:
数据库
跟踪uri记录新实验或跟踪模型。这可能取决于您的数据库运行时、mlflow和本地Python版本。