filtrage collaboratif sous java en utilisant MLlib de spark
salut les développeurs,
Je tente de développer un système de recommendation. Pour cela, je veux commencer par l'implémentation du collaborative filltring sous java en utilisant la bobliothèque MLLib de Spark. Je suis sous netbeans 8.0.2 java 8 , spark 2.3.0 et maven 2.5.3 . J'essaye d'executer ce programme mais j'ai cette exception
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
|
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
at org.apache.spark.SparkConf.loadFromSystemProperties(SparkConf.scala:73)
at org.apache.spark.SparkConf.<init>(SparkConf.scala:68)
at org.apache.spark.SparkConf.<init>(SparkConf.scala:55)
at recommendation.JavaRecommendationExample.main(JavaRecommendationExample.java:21)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream
at java.net.URLClassLoader$1.run(URLClassLoader.java:372)
at java.net.URLClassLoader$1.run(URLClassLoader.java:361)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:360)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 4 more
Java Result: 1 |
les variables d'environnement sont bien définies ainsi que le path !!! quelqu'un aurait une idée sur ce problème