Ansible error:“;错误:主机不是Ansible任务或处理程序中的合法参数;

Ansible error:“;错误:主机不是Ansible任务或处理程序中的合法参数;,ansible,ansible-playbook,Ansible,Ansible Playbook,我刚刚将spark_master和spark_workers添加到site.yml文件中。但是,当我使用清单文件运行ansible playbook时,我不断收到以下错误:错误:主机不是ansible任务或处理程序中的合法参数。如果我移除spark_master和spark_workers,它将正常运行。我的ansible版本是1.9.4,python版本是2.7.10 site.yml: --- # The main playbook to deploy the site - hosts:

我刚刚将spark_master和spark_workers添加到site.yml文件中。但是,当我使用清单文件运行ansible playbook时,我不断收到以下错误:
错误:主机不是ansible任务或处理程序中的合法参数
。如果我移除spark_master和spark_workers,它将正常运行。我的ansible版本是1.9.4,python版本是2.7.10

site.yml:

---
# The main playbook to deploy the site

- hosts: hadoop_all
  sudo: yes
  roles:
   - hadoop_common

- hosts: hadoop_master_primary
  roles:
  - { role: hadoop_primary }

- hosts: hadoop_slaves
  roles:
  - { role: hadoop_slaves }

- hosts: spark_master
  roles:
  - { role: spark_master }

- hosts: spark_workers
  roles:
  - { role: spark_workers }
库存文件:

[hadoop_all:children]
hadoop_masters
hadoop_slaves
hadoop_clients

[hadoop_master_primary]
hadoopmaster ansible_ssh_host=192.168.50.11

[hadoop_master_secondary]

[hadoop_masters:children]
hadoop_master_primary
hadoop_master_secondary

[hadoop_slaves]
hadoopslave1 ansible_ssh_host=192.168.50.12
hadoopslave2 ansible_ssh_host=192.168.50.13
hadoopslave3 ansible_ssh_host=192.168.50.14

[hadoop_clients]
hadoopclient1 ansible_ssh_host=192.168.50.15

[spark_master]
hadoopmaster

[spark_workers]
hadoopslave1
hadoopslave2
hadoopslave3

你的site.yml文件没有问题。但是,我肯定认为您可能已经在角色的“tasks/main.yml”文件中放置了“-hosts:”参数。既然你说没有spark_master和spark_workers,你的剧本运行得很好,我怀疑罪魁祸首是这两个角色之一的“tasks/main.yml”文件

我可以通过运行your site.yml重现您的问题,但在本地角色中添加了不必要的“-Hosts:”参数

让我知道进展如何