Binary compatibility report for the spark-avro_2.10-0.2.0 library  between 1.2.0 and 1.0.0 versions   (relating to the portability of client application spark-avro_2.10-0.2.0.jar)

Test Info


Library Namespark-avro_2.10-0.2.0
Version #11.2.0
Version #21.0.0
Java Version1.7.0_75

Test Results


Total Java ARchives1
Total Methods / Classes368 / 405
VerdictIncompatible
(59.8%)

Problem Summary


SeverityCount
Added Methods-5
Removed MethodsHigh174
Problems with
Data Types
High7
Medium0
Low0
Problems with
Methods
High0
Medium0
Low0

Added Methods (5)


spark-sql_2.10-1.0.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.decimalToLiteral ( scala.math.BigDecimal d )  :  catalyst.expressions.Literal
SQLContext.inferSchema ( org.apache.spark.rdd.RDD<scala.collection.immutable.Map<String,Object>> rdd )  :  SchemaRDD
SQLContext.logger ( )  :  com.typesafe.scalalogging.slf4j.Logger
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer.
SQLContext.parser ( )  :  catalyst.SqlParser

to the top

Removed Methods (174)


spark-sql_2.10-1.2.0.jar, JavaSchemaRDD.class
package org.apache.spark.sql.api.java
JavaSchemaRDD.baseLogicalPlan ( )  :  org.apache.spark.sql.catalyst.plans.logical.LogicalPlan
JavaSchemaRDD.collectAsync ( )  :  org.apache.spark.api.java.JavaFutureAction<java.util.List<Row>>
JavaSchemaRDD.countAsync ( )  :  org.apache.spark.api.java.JavaFutureAction<Long>
JavaSchemaRDD.foreachAsync ( org.apache.spark.api.java.function.VoidFunction<Row> f )  :  org.apache.spark.api.java.JavaFutureAction<Void>
JavaSchemaRDD.foreachPartitionAsync ( org.apache.spark.api.java.function.VoidFunction<java.util.Iterator<Row>> f )  :  org.apache.spark.api.java.JavaFutureAction<Void>
JavaSchemaRDD.org.apache.spark.sql.SchemaRDDLike._setter_.logicalPlan_.eq ( org.apache.spark.sql.catalyst.plans.logical.LogicalPlan p1 )  :  void
JavaSchemaRDD.partitions ( )  :  java.util.List<org.apache.spark.Partition>
JavaSchemaRDD.printSchema ( )  :  void
JavaSchemaRDD.registerTempTable ( String tableName )  :  void
JavaSchemaRDD.schema ( )  :  StructType
JavaSchemaRDD.schemaRDD ( )  :  org.apache.spark.sql.SchemaRDD
JavaSchemaRDD.schemaString ( )  :  String
JavaSchemaRDD.takeAsync ( int num )  :  org.apache.spark.api.java.JavaFutureAction<java.util.List<Row>>
JavaSchemaRDD.toJSON ( )  :  org.apache.spark.api.java.JavaRDD<String>

spark-sql_2.10-1.2.0.jar, JavaSQLContext.class
package org.apache.spark.sql.api.java
JavaSQLContext.applySchema ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.baseRelationToSchemaRDD ( org.apache.spark.sql.sources.BaseRelation baseRelation )  :  JavaSchemaRDD
JavaSQLContext.jsonFile ( String path )  :  JavaSchemaRDD
JavaSQLContext.jsonFile ( String path, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json )  :  JavaSchemaRDD
JavaSQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.registerFunction ( String name, UDF10<?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF11<?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF12<?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF13<?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF14<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF15<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF16<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF17<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF18<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF19<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF1<?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF20<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF21<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF22<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF2<?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF3<?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF4<?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF5<?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF6<?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF7<?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF8<?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF9<?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void

spark-sql_2.10-1.2.0.jar, RelationProvider.class
package org.apache.spark.sql.sources
RelationProvider.createRelation ( org.apache.spark.sql.SQLContext p1, scala.collection.immutable.Map<String,String> p2 ) [abstract]  :  BaseRelation

spark-sql_2.10-1.2.0.jar, SchemaRDD.class
package org.apache.spark.sql
SchemaRDD.baseLogicalPlan ( )  :  catalyst.plans.logical.LogicalPlan
SchemaRDD.cache ( )  :  org.apache.spark.rdd.RDD
SchemaRDD.cache ( )  :  SchemaRDD
SchemaRDD.collect ( )  :  Object
SchemaRDD.collect ( )  :  catalyst.expressions.Row[ ]
SchemaRDD.collectToPython ( )  :  java.util.List<byte[ ]>
SchemaRDD.except ( SchemaRDD otherPlan )  :  SchemaRDD
SchemaRDD.intersect ( SchemaRDD otherPlan )  :  SchemaRDD
SchemaRDD.limit ( int limitNum )  :  SchemaRDD
SchemaRDD.SchemaRDDLike._setter_.logicalPlan_.eq ( catalyst.plans.logical.LogicalPlan p1 )  :  void
SchemaRDD.persist ( org.apache.spark.storage.StorageLevel newLevel )  :  org.apache.spark.rdd.RDD
SchemaRDD.persist ( org.apache.spark.storage.StorageLevel newLevel )  :  SchemaRDD
SchemaRDD.printSchema ( )  :  void
SchemaRDD.registerTempTable ( String tableName )  :  void
SchemaRDD.schema ( )  :  catalyst.types.StructType
SchemaRDD.schemaString ( )  :  String
SchemaRDD.take ( int num )  :  Object
SchemaRDD.take ( int num )  :  catalyst.expressions.Row[ ]
SchemaRDD.toJSON ( )  :  org.apache.spark.rdd.RDD<String>
SchemaRDD.unpersist ( boolean blocking )  :  org.apache.spark.rdd.RDD
SchemaRDD.unpersist ( boolean blocking )  :  SchemaRDD

spark-sql_2.10-1.2.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.abs ( catalyst.expressions.Expression e )  :  catalyst.expressions.Abs
SQLContext.applySchema ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> rowRDD, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, String schemaString )  :  SchemaRDD
SQLContext.approxCountDistinct ( catalyst.expressions.Expression e, double rsd )  :  catalyst.expressions.ApproxCountDistinct
SQLContext.autoBroadcastJoinThreshold ( )  :  int
SQLContext.avg ( catalyst.expressions.Expression e )  :  catalyst.expressions.Average
SQLContext.baseRelationToSchemaRDD ( sources.BaseRelation baseRelation )  :  SchemaRDD
SQLContext.bigDecimalToLiteral ( scala.math.BigDecimal d )  :  catalyst.expressions.Literal
SQLContext.cacheQuery ( SchemaRDD query, scala.Option<String> tableName, org.apache.spark.storage.StorageLevel storageLevel )  :  void
SQLContext.clear ( )  :  void
SQLContext.clearCache ( )  :  void
SQLContext.codegenEnabled ( )  :  boolean
SQLContext.columnBatchSize ( )  :  int
SQLContext.columnNameOfCorruptRecord ( )  :  String
SQLContext.count ( catalyst.expressions.Expression e )  :  catalyst.expressions.Count
SQLContext.countDistinct ( scala.collection.Seq<catalyst.expressions.Expression> e )  :  catalyst.expressions.CountDistinct
SQLContext.dateToLiteral ( java.sql.Date d )  :  catalyst.expressions.Literal
SQLContext.ddlParser ( )  :  sources.DDLParser
SQLContext.decimalToLiteral ( catalyst.types.decimal.Decimal d )  :  catalyst.expressions.Literal
SQLContext.defaultSizeInBytes ( )  :  long
SQLContext.dialect ( )  :  String
SQLContext.dropTempTable ( String tableName )  :  void
SQLContext.emptyResult ( )  :  org.apache.spark.rdd.RDD<catalyst.expressions.Row>
SQLContext.externalSortEnabled ( )  :  boolean
SQLContext.extraStrategies ( )  :  scala.collection.Seq<catalyst.planning.GenericStrategy<execution.SparkPlan>>
SQLContext.extraStrategies_.eq ( scala.collection.Seq<catalyst.planning.GenericStrategy<execution.SparkPlan>> p1 )  :  void
SQLContext.first ( catalyst.expressions.Expression e )  :  catalyst.expressions.First
SQLContext.functionRegistry ( )  :  catalyst.analysis.FunctionRegistry
SQLContext.getAllConfs ( )  :  scala.collection.immutable.Map<String,String>
SQLContext.getConf ( String key )  :  String
SQLContext.getConf ( String key, String defaultValue )  :  String
SQLContext.inMemoryPartitionPruning ( )  :  boolean
SQLContext.invalidateCache ( catalyst.plans.logical.LogicalPlan plan )  :  void
SQLContext.isCached ( String tableName )  :  boolean
SQLContext.isParquetBinaryAsString ( )  :  boolean
SQLContext.isTraceEnabled ( )  :  boolean
SQLContext.jsonFile ( String path )  :  SchemaRDD
SQLContext.jsonFile ( String path, double samplingRatio )  :  SchemaRDD
SQLContext.jsonFile ( String path, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, double samplingRatio )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.last ( catalyst.expressions.Expression e )  :  catalyst.expressions.Last
SQLContext.log ( )  :  org.slf4j.Logger
SQLContext.logDebug ( scala.Function0<String> msg )  :  void
SQLContext.logDebug ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logError ( scala.Function0<String> msg )  :  void
SQLContext.logError ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logInfo ( scala.Function0<String> msg )  :  void
SQLContext.logInfo ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logName ( )  :  String
SQLContext.logTrace ( scala.Function0<String> msg )  :  void
SQLContext.logTrace ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logWarning ( scala.Function0<String> msg )  :  void
SQLContext.logWarning ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.lookupCachedData ( catalyst.plans.logical.LogicalPlan plan )  :  scala.Option<CachedData>
SQLContext.lookupCachedData ( SchemaRDD query )  :  scala.Option<CachedData>
SQLContext.lower ( catalyst.expressions.Expression e )  :  catalyst.expressions.Lower
SQLContext.max ( catalyst.expressions.Expression e )  :  catalyst.expressions.Max
SQLContext.min ( catalyst.expressions.Expression e )  :  catalyst.expressions.Min
SQLContext.numShufflePartitions ( )  :  int
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer
SQLContext.org.apache.spark.Logging..log_ ( )  :  org.slf4j.Logger
SQLContext.org.apache.spark.Logging..log__.eq ( org.slf4j.Logger p1 )  :  void
SQLContext.CacheManager..cachedData ( )  :  scala.collection.mutable.ArrayBuffer<CachedData>
SQLContext.CacheManager..cacheLock ( )  :  java.util.concurrent.locks.ReentrantReadWriteLock
SQLContext.CacheManager._setter_.CacheManager..cachedData_.eq ( scala.collection.mutable.ArrayBuffer p1 )  :  void
SQLContext.CacheManager._setter_.CacheManager..cacheLock_.eq ( java.util.concurrent.locks.ReentrantReadWriteLock p1 )  :  void
SQLContext.SQLConf._setter_.settings_.eq ( java.util.Map p1 )  :  void
SQLContext.parquetCompressionCodec ( )  :  String
SQLContext.parquetFilterPushDown ( )  :  boolean
SQLContext.parseDataType ( String dataTypeString )  :  catalyst.types.DataType
SQLContext.registerFunction ( String name, scala.Function10<?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function11<?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function12<?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function13<?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function14<?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function15<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function16<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function17<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function18<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function19<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function1<?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function20<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function21<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function22<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function2<?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function3<?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function4<?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function5<?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function6<?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function7<?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function8<?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function9<?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerPython ( String name, byte[ ] command, java.util.Map<String,String> envVars, java.util.List<String> pythonIncludes, String pythonExec, java.util.List<org.apache.spark.broadcast.Broadcast<org.apache.spark.api.python.PythonBroadcast>> broadcastVars, org.apache.spark.Accumulator<java.util.List<byte[ ]>> accumulator, String stringDataType )  :  void
SQLContext.setConf ( java.util.Properties props )  :  void
SQLContext.setConf ( String key, String value )  :  void
SQLContext.settings ( )  :  java.util.Map<String,String>
SQLContext.sqlParser ( )  :  catalyst.SparkSQLParser
SQLContext.sqrt ( catalyst.expressions.Expression e )  :  catalyst.expressions.Sqrt
SQLContext.sum ( catalyst.expressions.Expression e )  :  catalyst.expressions.Sum
SQLContext.sumDistinct ( catalyst.expressions.Expression e )  :  catalyst.expressions.SumDistinct
SQLContext.tryUncacheQuery ( SchemaRDD query, boolean blocking )  :  boolean
SQLContext.uncacheQuery ( SchemaRDD query, boolean blocking )  :  void
SQLContext.upper ( catalyst.expressions.Expression e )  :  catalyst.expressions.Upper
SQLContext.useCachedData ( catalyst.plans.logical.LogicalPlan plan )  :  catalyst.plans.logical.LogicalPlan
SQLContext.useCompression ( )  :  boolean

spark-sql_2.10-1.2.0.jar, TableScan.class
package org.apache.spark.sql.sources
TableScan.buildScan ( ) [abstract]  :  org.apache.spark.rdd.RDD<org.apache.spark.sql.catalyst.expressions.Row>
TableScan.TableScan ( )

to the top

Problems with Data Types, High Severity (7)


spark-sql_2.10-1.2.0.jar
package org.apache.spark.sql
[+] SQLContext (4)

package org.apache.spark.sql.api.java
[+] JavaSQLContext (1)

package org.apache.spark.sql.sources
[+] RelationProvider (1)
[+] TableScan (1)

to the top

Java ARchives (1)


spark-sql_2.10-1.2.0.jar

to the top




Generated on Sat Apr 11 01:08:11 2015 for spark-avro_2.10-0.2.0 by Java API Compliance Checker 1.4.1  
A tool for checking backward compatibility of a Java library API