Binary compatibility report for the magellan-1.0.3-s_2.10 library  between 1.4.0 and 1.0.0 versions   (relating to the portability of client application magellan-1.0.3-s_2.10.jar)

Test Info


Library Namemagellan-1.0.3-s_2.10
Version #11.4.0
Version #21.0.0
Java Version1.7.0_75

Test Results


Total Java ARchives1
Total Methods / Classes228 / 550
VerdictIncompatible
(86.8%)

Problem Summary


SeverityCount
Added Methods-30
Removed MethodsHigh183
Problems with
Data Types
High12
Medium1
Low0
Problems with
Methods
High1
Medium0
Low0

Added Methods (30)


spark-sql_2.10-1.0.0.jar, SparkPlan.class
package org.apache.spark.sql.execution
SparkPlan.buildRow ( scala.collection.Seq<Object> values )  :  org.apache.spark.sql.catalyst.expressions.Row
SparkPlan.executeCollect ( )  :  org.apache.spark.sql.catalyst.expressions.Row[ ]
SparkPlan.logger ( )  :  com.typesafe.scalalogging.slf4j.Logger

spark-sql_2.10-1.0.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.binaryToLiteral ( byte[ ] a )  :  catalyst.expressions.Literal
SQLContext.booleanToLiteral ( boolean b )  :  catalyst.expressions.Literal
SQLContext.byteToLiteral ( byte b )  :  catalyst.expressions.Literal
SQLContext.createParquetFile ( String path, boolean allowExisting, org.apache.hadoop.conf.Configuration conf, scala.reflect.api.TypeTags.TypeTag<A> p4 )  :  SchemaRDD
SQLContext.createSchemaRDD ( org.apache.spark.rdd.RDD<A> rdd, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  SchemaRDD
SQLContext.decimalToLiteral ( scala.math.BigDecimal d )  :  catalyst.expressions.Literal
SQLContext.doubleToLiteral ( double d )  :  catalyst.expressions.Literal
SQLContext.DslAttribute ( catalyst.expressions.AttributeReference a )  :  catalyst.dsl.package.ExpressionConversions.DslAttribute
SQLContext.DslExpression ( catalyst.expressions.Expression e )  :  catalyst.dsl.package.ExpressionConversions.DslExpression
SQLContext.DslString ( String s )  :  catalyst.dsl.package.ExpressionConversions.DslString
SQLContext.DslSymbol ( scala.Symbol sym )  :  catalyst.dsl.package.ExpressionConversions.DslSymbol
SQLContext.floatToLiteral ( float f )  :  catalyst.expressions.Literal
SQLContext.inferSchema ( org.apache.spark.rdd.RDD<scala.collection.immutable.Map<String,Object>> rdd )  :  SchemaRDD
SQLContext.intToLiteral ( int i )  :  catalyst.expressions.Literal
SQLContext.logger ( )  :  com.typesafe.scalalogging.slf4j.Logger
SQLContext.logicalPlanToSparkQuery ( catalyst.plans.logical.LogicalPlan plan )  :  SchemaRDD
SQLContext.longToLiteral ( long l )  :  catalyst.expressions.Literal
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer.
SQLContext.parquetFile ( String path )  :  SchemaRDD
SQLContext.parser ( )  :  catalyst.SqlParser
SQLContext.registerRDDAsTable ( SchemaRDD rdd, String tableName )  :  void
SQLContext.shortToLiteral ( short s )  :  catalyst.expressions.Literal
SQLContext.sql ( String sqlText )  :  SchemaRDD
SQLContext.stringToLiteral ( String s )  :  catalyst.expressions.Literal
SQLContext.symbolToUnresolvedAttribute ( scala.Symbol s )  :  catalyst.analysis.UnresolvedAttribute
SQLContext.table ( String tableName )  :  SchemaRDD
SQLContext.timestampToLiteral ( java.sql.Timestamp t )  :  catalyst.expressions.Literal

to the top

Removed Methods (183)


spark-sql_2.10-1.4.0.jar, BaseRelation.class
package org.apache.spark.sql.sources
BaseRelation.BaseRelation ( )
BaseRelation.needConversion ( )  :  boolean
BaseRelation.schema ( ) [abstract]  :  org.apache.spark.sql.types.StructType
BaseRelation.sizeInBytes ( )  :  long
BaseRelation.sqlContext ( ) [abstract]  :  org.apache.spark.sql.SQLContext

spark-sql_2.10-1.4.0.jar, Column.class
package org.apache.spark.sql
Column.alias ( String alias )  :  Column
Column.and ( Column other )  :  Column
Column.apply ( Object extraction )  :  Column
Column.as ( scala.collection.Seq<String> aliases )  :  Column
Column.as ( scala.Symbol alias )  :  Column
Column.as ( String alias )  :  Column
Column.as ( String alias, types.Metadata metadata )  :  Column
Column.as ( String[ ] aliases )  :  Column
Column.asc ( )  :  Column
Column.between ( Object lowerBound, Object upperBound )  :  Column
Column.bitwiseAND ( Object other )  :  Column
Column.bitwiseOR ( Object other )  :  Column
Column.bitwiseXOR ( Object other )  :  Column
Column.cast ( types.DataType to )  :  Column
Column.cast ( String to )  :  Column
Column.Column ( catalyst.expressions.Expression expr )
Column.Column ( String name )
Column.contains ( Object other )  :  Column
Column.desc ( )  :  Column
Column.divide ( Object other )  :  Column
Column.endsWith ( Column other )  :  Column
Column.endsWith ( String literal )  :  Column
Column.eqNullSafe ( Object other )  :  Column
Column.equals ( Object that )  :  boolean
Column.equalTo ( Object other )  :  Column
Column.explain ( boolean extended )  :  void
Column.expr ( )  :  catalyst.expressions.Expression
Column.geq ( Object other )  :  Column
Column.getField ( String fieldName )  :  Column
Column.getItem ( Object key )  :  Column
Column.gt ( Object other )  :  Column
Column.hashCode ( )  :  int
Column.in ( Column... list )  :  Column
Column.in ( scala.collection.Seq<Column> list )  :  Column
Column.isNotNull ( )  :  Column
Column.isNull ( )  :  Column
Column.isTraceEnabled ( )  :  boolean
Column.leq ( Object other )  :  Column
Column.like ( String literal )  :  Column
Column.log ( )  :  org.slf4j.Logger
Column.logDebug ( scala.Function0<String> msg )  :  void
Column.logDebug ( scala.Function0<String> msg, Throwable throwable )  :  void
Column.logError ( scala.Function0<String> msg )  :  void
Column.logError ( scala.Function0<String> msg, Throwable throwable )  :  void
Column.logInfo ( scala.Function0<String> msg )  :  void
Column.logInfo ( scala.Function0<String> msg, Throwable throwable )  :  void
Column.logName ( )  :  String
Column.logTrace ( scala.Function0<String> msg )  :  void
Column.logTrace ( scala.Function0<String> msg, Throwable throwable )  :  void
Column.logWarning ( scala.Function0<String> msg )  :  void
Column.logWarning ( scala.Function0<String> msg, Throwable throwable )  :  void
Column.lt ( Object other )  :  Column
Column.minus ( Object other )  :  Column
Column.mod ( Object other )  :  Column
Column.multiply ( Object other )  :  Column
Column.notEqual ( Object other )  :  Column
Column.or ( Column other )  :  Column
Column.org.apache.spark.Logging..log_ ( )  :  org.slf4j.Logger
Column.org.apache.spark.Logging..log__.eq ( org.slf4j.Logger p1 )  :  void
Column.otherwise ( Object value )  :  Column
Column.over ( expressions.WindowSpec window )  :  Column
Column.plus ( Object other )  :  Column
Column.rlike ( String literal )  :  Column
Column.startsWith ( Column other )  :  Column
Column.startsWith ( String literal )  :  Column
Column.substr ( int startPos, int len )  :  Column
Column.substr ( Column startPos, Column len )  :  Column
Column.toString ( )  :  String
Column.unapply ( Column p1 ) [static]  :  scala.Option<catalyst.expressions.Expression>
Column.unary_.bang ( )  :  Column
Column.unary_.minus ( )  :  Column
Column.when ( Column condition, Object value )  :  Column

spark-sql_2.10-1.4.0.jar, Filter.class
package org.apache.spark.sql.sources
Filter.Filter ( )

spark-sql_2.10-1.4.0.jar, RelationProvider.class
package org.apache.spark.sql.sources
RelationProvider.createRelation ( org.apache.spark.sql.SQLContext p1, scala.collection.immutable.Map<String,String> p2 ) [abstract]  :  BaseRelation

spark-sql_2.10-1.4.0.jar, SchemaRelationProvider.class
package org.apache.spark.sql.sources
SchemaRelationProvider.createRelation ( org.apache.spark.sql.SQLContext p1, scala.collection.immutable.Map<String,String> p2, org.apache.spark.sql.types.StructType p3 ) [abstract]  :  BaseRelation

spark-sql_2.10-1.4.0.jar, SparkPlan.class
package org.apache.spark.sql.execution
SparkPlan.codegenEnabled ( )  :  boolean
SparkPlan.doExecute ( ) [abstract]  :  org.apache.spark.rdd.RDD<org.apache.spark.sql.Row>
SparkPlan.executeCollect ( )  :  org.apache.spark.sql.Row[ ]
SparkPlan.executeTake ( int n )  :  org.apache.spark.sql.Row[ ]
SparkPlan.isTraceEnabled ( )  :  boolean
SparkPlan.log ( )  :  org.slf4j.Logger
SparkPlan.logDebug ( scala.Function0<String> msg )  :  void
SparkPlan.logDebug ( scala.Function0<String> msg, Throwable throwable )  :  void
SparkPlan.logError ( scala.Function0<String> msg )  :  void
SparkPlan.logError ( scala.Function0<String> msg, Throwable throwable )  :  void
SparkPlan.logInfo ( scala.Function0<String> msg )  :  void
SparkPlan.logInfo ( scala.Function0<String> msg, Throwable throwable )  :  void
SparkPlan.logName ( )  :  String
SparkPlan.logTrace ( scala.Function0<String> msg )  :  void
SparkPlan.logTrace ( scala.Function0<String> msg, Throwable throwable )  :  void
SparkPlan.logWarning ( scala.Function0<String> msg )  :  void
SparkPlan.logWarning ( scala.Function0<String> msg, Throwable throwable )  :  void
SparkPlan.makeCopy ( Object[ ] newArgs )  :  org.apache.spark.sql.catalyst.trees.TreeNode
SparkPlan.makeCopy ( Object[ ] newArgs )  :  SparkPlan
SparkPlan.newMutableProjection ( scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.Expression> expressions, scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.Attribute> inputSchema )  :  scala.Function0<org.apache.spark.sql.catalyst.expressions.package.MutableProjection>
SparkPlan.newOrdering ( scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.SortOrder> order, scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.Attribute> inputSchema )  :  scala.math.Ordering<org.apache.spark.sql.Row>
SparkPlan.newPredicate ( org.apache.spark.sql.catalyst.expressions.Expression expression, scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.Attribute> inputSchema )  :  scala.Function1<org.apache.spark.sql.Row,Object>
SparkPlan.newProjection ( scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.Expression> expressions, scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.Attribute> inputSchema )  :  org.apache.spark.sql.catalyst.expressions.package.Projection
SparkPlan.org.apache.spark.Logging..log_ ( )  :  org.slf4j.Logger
SparkPlan.org.apache.spark.Logging..log__.eq ( org.slf4j.Logger p1 )  :  void
SparkPlan.outputOrdering ( )  :  scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.SortOrder>
SparkPlan.requiredChildOrdering ( )  :  scala.collection.Seq<scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.SortOrder>>
SparkPlan.sparkContext ( )  :  org.apache.spark.SparkContext
SparkPlan.sqlContext ( )  :  org.apache.spark.sql.SQLContext

spark-sql_2.10-1.4.0.jar, SQLConf.class
package org.apache.spark.sql
SQLConf.SQLConf ( )

spark-sql_2.10-1.4.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, types.StructType schema )  :  DataFrame
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, String schemaString )  :  DataFrame
SQLContext.baseRelationToDataFrame ( sources.BaseRelation baseRelation )  :  DataFrame
SQLContext.cacheManager ( )  :  execution.CacheManager
SQLContext.clearCache ( )  :  void
SQLContext.conf ( )  :  SQLConf
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<?> rdd, Class<?> beanClass )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, types.StructType schema )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<?> rdd, Class<?> beanClass )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<A> rdd, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<Row> rowRDD, types.StructType schema )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<Row> rowRDD, types.StructType schema, boolean needsConversion )  :  DataFrame
SQLContext.createDataFrame ( scala.collection.Seq<A> data, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String path )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String path, String source )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, java.util.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, types.StructType schema, java.util.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, types.StructType schema, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.createSession ( )  :  SQLContext.SQLSession
SQLContext.currentSession ( )  :  SQLContext.SQLSession
SQLContext.ddlParser ( )  :  sources.DDLParser
SQLContext.defaultSession ( )  :  SQLContext.SQLSession
SQLContext.detachSession ( )  :  void
SQLContext.dialectClassName ( )  :  String
SQLContext.dropTempTable ( String tableName )  :  void
SQLContext.emptyDataFrame ( )  :  DataFrame
SQLContext.emptyResult ( )  :  org.apache.spark.rdd.RDD<Row>
SQLContext.experimental ( )  :  ExperimentalMethods
SQLContext.functionRegistry ( )  :  catalyst.analysis.FunctionRegistry
SQLContext.getAllConfs ( )  :  scala.collection.immutable.Map<String,String>
SQLContext.getConf ( String key )  :  String
SQLContext.getConf ( String key, String defaultValue )  :  String
SQLContext.getOrCreate ( org.apache.spark.SparkContext p1 ) [static]  :  SQLContext
SQLContext.getSchema ( Class<?> beanClass )  :  scala.collection.Seq<catalyst.expressions.AttributeReference>
SQLContext.getSQLDialect ( )  :  catalyst.ParserDialect
SQLContext.implicits ( )  :  SQLContext.implicits.
SQLContext.isCached ( String tableName )  :  boolean
SQLContext.isTraceEnabled ( )  :  boolean
SQLContext.log ( )  :  org.slf4j.Logger
SQLContext.logDebug ( scala.Function0<String> msg )  :  void
SQLContext.logDebug ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logError ( scala.Function0<String> msg )  :  void
SQLContext.logError ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logInfo ( scala.Function0<String> msg )  :  void
SQLContext.logInfo ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logName ( )  :  String
SQLContext.logTrace ( scala.Function0<String> msg )  :  void
SQLContext.logTrace ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.logWarning ( scala.Function0<String> msg )  :  void
SQLContext.logWarning ( scala.Function0<String> msg, Throwable throwable )  :  void
SQLContext.openSession ( )  :  SQLContext.SQLSession
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer
SQLContext.org.apache.spark.Logging..log_ ( )  :  org.slf4j.Logger
SQLContext.org.apache.spark.Logging..log__.eq ( org.slf4j.Logger p1 )  :  void
SQLContext.parquetFile ( String... paths )  :  DataFrame
SQLContext.parseDataType ( String dataTypeString )  :  types.DataType
SQLContext.range ( long start, long end )  :  DataFrame
SQLContext.range ( long start, long end, long step, int numPartitions )  :  DataFrame
SQLContext.read ( )  :  DataFrameReader
SQLContext.registerDataFrameAsTable ( DataFrame df, String tableName )  :  void
SQLContext.setConf ( java.util.Properties props )  :  void
SQLContext.setConf ( String key, String value )  :  void
SQLContext.sql ( String sqlText )  :  DataFrame
SQLContext.SQLContext ( org.apache.spark.api.java.JavaSparkContext sparkContext )
SQLContext.sqlParser ( )  :  SparkSQLParser
SQLContext.table ( String tableName )  :  DataFrame
SQLContext.tableNames ( )  :  String[ ]
SQLContext.tableNames ( String databaseName )  :  String[ ]
SQLContext.tables ( )  :  DataFrame
SQLContext.tables ( String databaseName )  :  DataFrame
SQLContext.tlSession ( )  :  ThreadLocal<SQLContext.SQLSession>
SQLContext.udf ( )  :  UDFRegistration

to the top

Problems with Data Types, High Severity (12)


spark-sql_2.10-1.4.0.jar
package org.apache.spark.sql
[+] Column (1)
[+] SQLConf (1)
[+] SQLContext (1)
[+] SQLContext.QueryExecution (1)

package org.apache.spark.sql.execution
[+] SparkPlan (4)

package org.apache.spark.sql.sources
[+] BaseRelation (1)
[+] Filter (1)
[+] RelationProvider (1)
[+] SchemaRelationProvider (1)

to the top

Problems with Methods, High Severity (1)


spark-sql_2.10-1.4.0.jar, SparkPlan
package org.apache.spark.sql.execution
[+] SparkPlan.execute ( )  :  org.apache.spark.rdd.RDD<org.apache.spark.sql.Row> (1)

to the top

Problems with Data Types, Medium Severity (1)


spark-sql_2.10-1.4.0.jar
package org.apache.spark.sql.execution
[+] SparkPlan (1)

to the top

Java ARchives (1)


spark-sql_2.10-1.4.0.jar

to the top




Generated on Thu Aug 20 01:37:23 2015 for magellan-1.0.3-s_2.10 by Java API Compliance Checker 1.4.1  
A tool for checking backward compatibility of a Java library API