Binary compatibility report for the elasticsearch-spark_2.10-2.1.0.Beta2 library  between 1.1.0 and 1.0.0 versions   (relating to the portability of client application elasticsearch-spark_2.10-2.1.0.Beta2.jar)

Test Info


Library Nameelasticsearch-spark_2.10-2.1.0.Beta2
Version #11.1.0
Version #21.0.0
Java Version1.7.0_75

Test Results


Total Java ARchives2
Total Methods / Classes778 / 1440
VerdictIncompatible
(29.7%)

Problem Summary


SeverityCount
Added Methods-7
Removed MethodsHigh182
Problems with
Data Types
High9
Medium0
Low0
Problems with
Methods
High0
Medium0
Low0

Added Methods (7)


spark-core_2.10-1.0.0.jar, RDD<T>.class
package org.apache.spark.rdd
RDD<T>.creationSiteInfo ( )  :  org.apache.spark.util.Utils.CallSiteInfo

spark-core_2.10-1.0.0.jar, SparkConf.class
package org.apache.spark
SparkConf.SparkConf..settings ( )  :  scala.collection.mutable.HashMap<String,String>

spark-core_2.10-1.0.0.jar, SparkContext.class
package org.apache.spark
SparkContext.clean ( F f )  :  F
SparkContext.getCallSite ( )  :  String

spark-core_2.10-1.0.0.jar, TaskContext.class
package org.apache.spark
TaskContext.executeOnCompleteCallbacks ( )  :  void

spark-sql_2.10-1.0.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.inferSchema ( org.apache.spark.rdd.RDD<scala.collection.immutable.Map<String,Object>> rdd )  :  SchemaRDD
SQLContext.logger ( )  :  com.typesafe.scalalogging.slf4j.Logger

to the top

Removed Methods (182)


spark-core_2.10-1.1.0.jar, JavaSparkContext.class
package org.apache.spark.api.java
JavaSparkContext.accumulable ( T initialValue, String name, org.apache.spark.AccumulableParam<T,R> param )  :  org.apache.spark.Accumulable<T,R>
JavaSparkContext.accumulator ( double initialValue, String name )  :  org.apache.spark.Accumulator<Double>
JavaSparkContext.accumulator ( int initialValue, String name )  :  org.apache.spark.Accumulator<Integer>
JavaSparkContext.accumulator ( T initialValue, String name, org.apache.spark.AccumulatorParam<T> accumulatorParam )  :  org.apache.spark.Accumulator<T>
JavaSparkContext.doubleAccumulator ( double initialValue, String name )  :  org.apache.spark.Accumulator<Double>
JavaSparkContext.emptyRDD ( )  :  JavaRDD<T>
JavaSparkContext.intAccumulator ( int initialValue, String name )  :  org.apache.spark.Accumulator<Integer>
JavaSparkContext.version ( )  :  String

spark-core_2.10-1.1.0.jar, RDD<T>.class
package org.apache.spark.rdd
RDD<T>.countApproxDistinct ( int p, int sp )  :  long
RDD<T>.creationSite ( )  :  org.apache.spark.util.CallSite
RDD<T>.logName ( )  :  String
RDD<T>.retag ( Class<T> cls )  :  RDD<T>
RDD<T>.retag ( scala.reflect.ClassTag<T> classTag )  :  RDD<T>
RDD<T>.sortBy ( scala.Function1<T,K> f, boolean ascending, int numPartitions, scala.math.Ordering<K> ord, scala.reflect.ClassTag<K> ctag )  :  RDD<T>

spark-core_2.10-1.1.0.jar, SparkConf.class
package org.apache.spark
SparkConf.getenv ( String name )  :  String
SparkConf.isAkkaConf ( String p1 ) [static]  :  boolean
SparkConf.isExecutorStartupConf ( String p1 ) [static]  :  boolean
SparkConf.isSparkPortConf ( String p1 ) [static]  :  boolean
SparkConf.logName ( )  :  String
SparkConf.settings ( )  :  scala.collection.mutable.HashMap<String,String>

spark-core_2.10-1.1.0.jar, SparkContext.class
package org.apache.spark
SparkContext.accumulable ( T initialValue, String name, AccumulableParam<T,R> param )  :  Accumulable<T,R>
SparkContext.accumulator ( T initialValue, String name, AccumulatorParam<T> param )  :  Accumulator<T>
SparkContext.clean ( F f, boolean checkSerializable )  :  F
SparkContext.getCallSite ( )  :  util.CallSite
SparkContext.logName ( )  :  String

spark-core_2.10-1.1.0.jar, TaskContext.class
package org.apache.spark
TaskContext.addTaskCompletionListener ( util.TaskCompletionListener listener )  :  TaskContext
TaskContext.addTaskCompletionListener ( scala.Function1<TaskContext,scala.runtime.BoxedUnit> f )  :  TaskContext
TaskContext.isCompleted ( )  :  boolean
TaskContext.isInterrupted ( )  :  boolean
TaskContext.markInterrupted ( )  :  void
TaskContext.markTaskCompleted ( )  :  void

spark-sql_2.10-1.1.0.jar, ArrayType.class
package org.apache.spark.sql.api.java
ArrayType.getElementType ( )  :  DataType
ArrayType.isContainsNull ( )  :  boolean

spark-sql_2.10-1.1.0.jar, DataType.class
package org.apache.spark.sql.api.java
DataType.createArrayType ( DataType elementType ) [static]  :  ArrayType
DataType.createArrayType ( DataType elementType, boolean containsNull ) [static]  :  ArrayType
DataType.createMapType ( DataType keyType, DataType valueType ) [static]  :  MapType
DataType.createMapType ( DataType keyType, DataType valueType, boolean valueContainsNull ) [static]  :  MapType
DataType.createStructField ( String name, DataType dataType, boolean nullable ) [static]  :  StructField
DataType.createStructType ( java.util.List<StructField> fields ) [static]  :  StructType
DataType.createStructType ( StructField[ ] fields ) [static]  :  StructType
DataType.DataType ( )

spark-sql_2.10-1.1.0.jar, JavaSchemaRDD.class
package org.apache.spark.sql.api.java
JavaSchemaRDD.baseLogicalPlan ( )  :  org.apache.spark.sql.catalyst.plans.logical.LogicalPlan
JavaSchemaRDD.org.apache.spark.sql.SchemaRDDLike._setter_.logicalPlan_.eq ( org.apache.spark.sql.catalyst.plans.logical.LogicalPlan p1 )  :  void
JavaSchemaRDD.partitions ( )  :  java.util.List<org.apache.spark.Partition>
JavaSchemaRDD.printSchema ( )  :  void
JavaSchemaRDD.registerTempTable ( String tableName )  :  void
JavaSchemaRDD.schema ( )  :  StructType
JavaSchemaRDD.schemaString ( )  :  String

spark-sql_2.10-1.1.0.jar, JavaSQLContext.class
package org.apache.spark.sql.api.java
JavaSQLContext.applySchema ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.jsonFile ( String path )  :  JavaSchemaRDD
JavaSQLContext.jsonFile ( String path, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json )  :  JavaSchemaRDD
JavaSQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.registerFunction ( String name, UDF10<?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF11<?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF12<?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF13<?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF14<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF15<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF16<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF17<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF18<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF19<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF1<?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF20<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF21<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF22<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF2<?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF3<?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF4<?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF5<?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF6<?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF7<?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF8<?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF9<?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void

spark-sql_2.10-1.1.0.jar, MapType.class
package org.apache.spark.sql.api.java
MapType.getKeyType ( )  :  DataType
MapType.getValueType ( )  :  DataType
MapType.isValueContainsNull ( )  :  boolean

spark-sql_2.10-1.1.0.jar, Row.class
package org.apache.spark.sql.api.java
Row.canEqual ( Object other )  :  boolean
Row.create ( Object... p1 ) [static]  :  Row
Row.create ( scala.collection.Seq<Object> p1 ) [static]  :  Row
Row.equals ( Object other )  :  boolean
Row.hashCode ( )  :  int

spark-sql_2.10-1.1.0.jar, SchemaRDD.class
package org.apache.spark.sql
SchemaRDD.baseLogicalPlan ( )  :  catalyst.plans.logical.LogicalPlan
SchemaRDD.collect ( )  :  Object
SchemaRDD.collect ( )  :  catalyst.expressions.Row[ ]
SchemaRDD.except ( SchemaRDD otherPlan )  :  SchemaRDD
SchemaRDD.intersect ( SchemaRDD otherPlan )  :  SchemaRDD
SchemaRDD.limit ( int limitNum )  :  SchemaRDD
SchemaRDD.SchemaRDDLike._setter_.logicalPlan_.eq ( catalyst.plans.logical.LogicalPlan p1 )  :  void
SchemaRDD.printSchema ( )  :  void
SchemaRDD.registerTempTable ( String tableName )  :  void
SchemaRDD.schema ( )  :  catalyst.types.StructType
SchemaRDD.schemaString ( )  :  String
SchemaRDD.take ( int num )  :  Object
SchemaRDD.take ( int num )  :  catalyst.expressions.Row[ ]

spark-sql_2.10-1.1.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.applySchema ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> rowRDD, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, String schemaString )  :  SchemaRDD
SQLContext.approxCountDistinct ( catalyst.expressions.Expression e, double rsd )  :  catalyst.expressions.ApproxCountDistinct
SQLContext.autoBroadcastJoinThreshold ( )  :  int
SQLContext.avg ( catalyst.expressions.Expression e )  :  catalyst.expressions.Average
SQLContext.clear ( )  :  void
SQLContext.codegenEnabled ( )  :  boolean
SQLContext.columnBatchSize ( )  :  int
SQLContext.count ( catalyst.expressions.Expression e )  :  catalyst.expressions.Count
SQLContext.countDistinct ( scala.collection.Seq<catalyst.expressions.Expression> e )  :  catalyst.expressions.CountDistinct
SQLContext.defaultSizeInBytes ( )  :  long
SQLContext.dialect ( )  :  String
SQLContext.emptyResult ( )  :  org.apache.spark.rdd.RDD<catalyst.expressions.Row>
SQLContext.first ( catalyst.expressions.Expression e )  :  catalyst.expressions.First
SQLContext.functionRegistry ( )  :  catalyst.analysis.FunctionRegistry
SQLContext.getAllConfs ( )  :  scala.collection.immutable.Map<String,String>
SQLContext.getConf ( String key )  :  String
SQLContext.getConf ( String key, String defaultValue )  :  String
SQLContext.isCached ( String tableName )  :  boolean
SQLContext.isParquetBinaryAsString ( )  :  boolean
SQLContext.isTraceEnabled ( )  :  boolean
SQLContext.jsonFile ( String path )  :  SchemaRDD
SQLContext.jsonFile ( String path, double samplingRatio )  :  SchemaRDD
SQLContext.jsonFile ( String path, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, double samplingRatio )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.log ( )  :  org.slf4j.Logger
SQLContext.logDebug ( scala.Function0<String> msg )  :  void
SQLContext.logDebug ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logError ( scala.Function0<String> msg )  :  void
SQLContext.logError ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logInfo ( scala.Function0<String> msg )  :  void
SQLContext.logInfo ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logName ( )  :  String
SQLContext.logTrace ( scala.Function0<String> msg )  :  void
SQLContext.logTrace ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logWarning ( scala.Function0<String> msg )  :  void
SQLContext.logWarning ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.lower ( catalyst.expressions.Expression e )  :  catalyst.expressions.Lower
SQLContext.max ( catalyst.expressions.Expression e )  :  catalyst.expressions.Max
SQLContext.min ( catalyst.expressions.Expression e )  :  catalyst.expressions.Min
SQLContext.numShufflePartitions ( )  :  int
SQLContext.org.apache.spark.Logging..log_ ( )  :  org.slf4j.Logger
SQLContext.org.apache.spark.Logging..log__.eq ( org.slf4j.Logger p1 )  :  void
SQLContext.SQLConf._setter_.settings_.eq ( java.util.Map p1 )  :  void
SQLContext.parquetCompressionCodec ( )  :  String
SQLContext.parseDataType ( String dataTypeString )  :  catalyst.types.DataType
SQLContext.registerFunction ( String name, scala.Function10<?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function11<?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function12<?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function13<?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function14<?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function15<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function16<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function17<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function18<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function19<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function1<?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function20<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function21<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function22<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function2<?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function3<?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function4<?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function5<?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function6<?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function7<?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function8<?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function9<?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerPython ( String name, byte[ ] command, java.util.Map<String,String> envVars, java.util.List<String> pythonIncludes, String pythonExec, org.apache.spark.Accumulator<java.util.List<byte[ ]>> accumulator, String stringDataType )  :  void
SQLContext.setConf ( java.util.Properties props )  :  void
SQLContext.setConf ( String key, String value )  :  void
SQLContext.settings ( )  :  java.util.Map<String,String>
SQLContext.sum ( catalyst.expressions.Expression e )  :  catalyst.expressions.Sum
SQLContext.sumDistinct ( catalyst.expressions.Expression e )  :  catalyst.expressions.SumDistinct
SQLContext.upper ( catalyst.expressions.Expression e )  :  catalyst.expressions.Upper
SQLContext.useCompression ( )  :  boolean

spark-sql_2.10-1.1.0.jar, StructField.class
package org.apache.spark.sql.api.java
StructField.equals ( Object o )  :  boolean
StructField.getDataType ( )  :  DataType
StructField.getName ( )  :  String
StructField.hashCode ( )  :  int
StructField.isNullable ( )  :  boolean
StructField.StructField ( String name, DataType dataType, boolean nullable )

spark-sql_2.10-1.1.0.jar, StructType.class
package org.apache.spark.sql.api.java
StructType.getFields ( )  :  StructField[ ]

to the top

Problems with Data Types, High Severity (9)


spark-sql_2.10-1.1.0.jar
package org.apache.spark.sql
[+] SQLContext (3)

package org.apache.spark.sql.api.java
[+] ArrayType (1)
[+] DataType (1)
[+] JavaSQLContext (1)
[+] MapType (1)
[+] StructField (1)
[+] StructType (1)

to the top

Java ARchives (2)


spark-core_2.10-1.1.0.jar
spark-sql_2.10-1.1.0.jar

to the top




Generated on Mon Jun 29 20:31:16 2015 for elasticsearch-spark_2.10-2.1.0.Beta2 by Java API Compliance Checker 1.4.1  
A tool for checking backward compatibility of a Java library API