运行单元测试
要运行单元测试,请运行 run-tests.sh
脚本。你需要设置以下环境变量
SPARK_HOME
: 你的本地 Apache Spark 副本。查看.travis.yml
和download_spark_dependencies.sh
以获取有关如何下载 Apache Spark 的详细信息。HYPEROPT_FMIN_SEED
: 随机种子。你需要从.travis.yml
获取其值。
例如
hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh
要运行单个文件的单元测试,你可以将文件名作为参数添加,例如
hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh hyperopt/tests/test_spark.py
要运行除 test_spark.py
外的所有单元测试,请添加 --no-spark
标志,例如
hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark
要运行除 test_spark.py
外的单个文件的单元测试,请在 --no-spark
标志后将文件名作为参数添加,例如
hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark test_base.py