Java 将Spark微框架部署到服务器
我开发了一个简单的Spark Web应用程序,在通过IDE(IntelliJ)启动时运行良好。但是,当我运行生成的.jar(或.war-我已经尝试创建了两者)时,我得到了一个清单错误:Java 将Spark微框架部署到服务器,java,intellij-idea,webserver,Java,Intellij Idea,Webserver,我开发了一个简单的Spark Web应用程序,在通过IDE(IntelliJ)启动时运行良好。但是,当我运行生成的.jar(或.war-我已经尝试创建了两者)时,我得到了一个清单错误: no main manifest attribute, in build/libs/ProjectName-0.1.war 我的目标是在测试服务器上独立运行它。我已经通读了,但没有具体说明如何启动应用程序-我猜是通过运行: java-jarprojectname-0.1.war 这导致了把我带到这里的错误 编辑
no main manifest attribute, in build/libs/ProjectName-0.1.war
我的目标是在测试服务器上独立运行它。我已经通读了,但没有具体说明如何启动应用程序-我猜是通过运行:
java-jarprojectname-0.1.war
这导致了把我带到这里的错误
编辑:使用Gradle 2.2.1我有一个示例应用程序,您可以部署它() 在我的pom中,我有构建胖罐子的相关部分。最后,还有一种生成debian文件的方法。我不确定我是否完成了那部分,但你肯定可以使用胖罐子
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-assembly-plugin</artifactId>
<version>2.4.1</version>
<configuration>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
<archive>
<manifest>
<addClasspath>true</addClasspath>
<mainClass>ca.rasul.sparkjava.testapp.HelloWorld</mainClass>
</manifest>
</archive>
</configuration>
<executions>
<execution>
<id>assemble-all</id>
<phase>package</phase>
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-jar-plugin</artifactId>
<configuration>
<archive>
<manifest>
<addClasspath>true</addClasspath>
<mainClass>ca.rasul.sparkjava.testapp.HelloWorld</mainClass>
</manifest>
</archive>
</configuration>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.1</version>
<configuration>
<source>${java.version}</source>
<target>${java.version}</target>
</configuration>
</plugin>
<!--building a deb package-->
<plugin>
<artifactId>jdeb</artifactId>
<groupId>org.vafer</groupId>
<version>1.3</version>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>jdeb</goal>
</goals>
<configuration>
<dataSet>
<data>
<src>${project.build.directory}/${project.build.finalName}.jar</src>
<type>file</type>
<mapper>
<type>perm</type>
<prefix>/usr/share/jdeb/lib</prefix>
</mapper>
</data>
</dataSet>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
org.apache.maven.plugins
maven汇编插件
2.4.1
带有依赖项的jar
真的
ca.rasul.sparkjava.testapp.HelloWorld
集合所有
包裹
单一的
org.apache.maven.plugins
maven jar插件
真的
ca.rasul.sparkjava.testapp.HelloWorld
org.apache.maven.plugins
maven编译器插件
3.1
${java.version}
${java.version}
jdeb
沃弗
1.3
包裹
jdeb
${project.build.directory}/${project.build.finalName}.jar
文件
烫发
/usr/share/jdeb/lib
我想说,您的问题根本与Spark无关,而是与java或maven问题有关。你可能想看一看谢谢米克尔-我用的是Gradle