运行单元测试

要运行单元测试,请运行 run-tests.sh 脚本。你需要设置以下环境变量

  • SPARK_HOME: 你的本地 Apache Spark 副本。查看 .travis.ymldownload_spark_dependencies.sh 以获取有关如何下载 Apache Spark 的详细信息。
  • HYPEROPT_FMIN_SEED: 随机种子。你需要从 .travis.yml 获取其值。

例如

hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh

要运行单个文件的单元测试,你可以将文件名作为参数添加,例如

hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh hyperopt/tests/test_spark.py

要运行除 test_spark.py 外的所有单元测试,请添加 --no-spark 标志,例如

hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark

要运行除 test_spark.py 外的单个文件的单元测试,请在 --no-spark 标志后将文件名作为参数添加,例如

hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark test_base.py