Binary compatibility report for the spark-sas7bdat-1.0.0-s_2.10 library  between 1.3.0 and 1.1.0 versions   (relating to the portability of client application spark-sas7bdat-1.0.0-s_2.10.jar)

Test Info


Library Namespark-sas7bdat-1.0.0-s_2.10
Version #11.3.0
Version #21.1.0
Java Version1.7.0_75

Test Results


Total Java ARchives1
Total Methods / Classes179 / 463
VerdictIncompatible
(36.9%)

Problem Summary


SeverityCount
Added Methods-81
Removed MethodsHigh64
Problems with
Data Types
High4
Medium0
Low0
Problems with
Methods
High0
Medium0
Low0

Added Methods (81)


spark-sql_2.10-1.1.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.applySchema ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> rowRDD, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, String schemaString )  :  SchemaRDD
SQLContext.approxCountDistinct ( catalyst.expressions.Expression e, double rsd )  :  catalyst.expressions.ApproxCountDistinct
SQLContext.autoBroadcastJoinThreshold ( )  :  int
SQLContext.avg ( catalyst.expressions.Expression e )  :  catalyst.expressions.Average
SQLContext.binaryToLiteral ( byte[ ] a )  :  catalyst.expressions.Literal
SQLContext.booleanToLiteral ( boolean b )  :  catalyst.expressions.Literal
SQLContext.byteToLiteral ( byte b )  :  catalyst.expressions.Literal
SQLContext.clear ( )  :  void
SQLContext.codegenEnabled ( )  :  boolean
SQLContext.columnBatchSize ( )  :  int
SQLContext.count ( catalyst.expressions.Expression e )  :  catalyst.expressions.Count
SQLContext.countDistinct ( scala.collection.Seq<catalyst.expressions.Expression> e )  :  catalyst.expressions.CountDistinct
SQLContext.createParquetFile ( String path, boolean allowExisting, org.apache.hadoop.conf.Configuration conf, scala.reflect.api.TypeTags.TypeTag<A> p4 )  :  SchemaRDD
SQLContext.createSchemaRDD ( org.apache.spark.rdd.RDD<A> rdd, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  SchemaRDD
SQLContext.decimalToLiteral ( scala.math.BigDecimal d )  :  catalyst.expressions.Literal
SQLContext.defaultSizeInBytes ( )  :  long
SQLContext.dialect ( )  :  String
SQLContext.doubleToLiteral ( double d )  :  catalyst.expressions.Literal
SQLContext.DslAttribute ( catalyst.expressions.AttributeReference a )  :  catalyst.dsl.package.ExpressionConversions.DslAttribute
SQLContext.DslExpression ( catalyst.expressions.Expression e )  :  catalyst.dsl.package.ExpressionConversions.DslExpression
SQLContext.DslString ( String s )  :  catalyst.dsl.package.ExpressionConversions.DslString
SQLContext.DslSymbol ( scala.Symbol sym )  :  catalyst.dsl.package.ExpressionConversions.DslSymbol
SQLContext.first ( catalyst.expressions.Expression e )  :  catalyst.expressions.First
SQLContext.floatToLiteral ( float f )  :  catalyst.expressions.Literal
SQLContext.intToLiteral ( int i )  :  catalyst.expressions.Literal
SQLContext.isParquetBinaryAsString ( )  :  boolean
SQLContext.jsonFile ( String path )  :  SchemaRDD
SQLContext.jsonFile ( String path, double samplingRatio )  :  SchemaRDD
SQLContext.jsonFile ( String path, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, double samplingRatio )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.logicalPlanToSparkQuery ( catalyst.plans.logical.LogicalPlan plan )  :  SchemaRDD
SQLContext.longToLiteral ( long l )  :  catalyst.expressions.Literal
SQLContext.lower ( catalyst.expressions.Expression e )  :  catalyst.expressions.Lower
SQLContext.max ( catalyst.expressions.Expression e )  :  catalyst.expressions.Max
SQLContext.min ( catalyst.expressions.Expression e )  :  catalyst.expressions.Min
SQLContext.numShufflePartitions ( )  :  int
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer.
SQLContext.SQLConf._setter_.settings_.eq ( java.util.Map p1 )  :  void
SQLContext.parquetCompressionCodec ( )  :  String
SQLContext.parquetFile ( String path )  :  SchemaRDD
SQLContext.parseDataType ( String dataTypeString )  :  catalyst.types.DataType
SQLContext.parser ( )  :  catalyst.SqlParser
SQLContext.registerFunction ( String name, scala.Function10<?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function11<?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function12<?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function13<?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function14<?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function15<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function16<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function17<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function18<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function19<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function1<?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function20<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function21<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function22<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function2<?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function3<?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function4<?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function5<?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function6<?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function7<?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function8<?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function9<?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerPython ( String name, byte[ ] command, java.util.Map<String,String> envVars, java.util.List<String> pythonIncludes, String pythonExec, org.apache.spark.Accumulator<java.util.List<byte[ ]>> accumulator, String stringDataType )  :  void
SQLContext.registerRDDAsTable ( SchemaRDD rdd, String tableName )  :  void
SQLContext.settings ( )  :  java.util.Map<String,String>
SQLContext.shortToLiteral ( short s )  :  catalyst.expressions.Literal
SQLContext.sql ( String sqlText )  :  SchemaRDD
SQLContext.stringToLiteral ( String s )  :  catalyst.expressions.Literal
SQLContext.sum ( catalyst.expressions.Expression e )  :  catalyst.expressions.Sum
SQLContext.sumDistinct ( catalyst.expressions.Expression e )  :  catalyst.expressions.SumDistinct
SQLContext.symbolToUnresolvedAttribute ( scala.Symbol s )  :  catalyst.analysis.UnresolvedAttribute
SQLContext.table ( String tableName )  :  SchemaRDD
SQLContext.timestampToLiteral ( java.sql.Timestamp t )  :  catalyst.expressions.Literal
SQLContext.upper ( catalyst.expressions.Expression e )  :  catalyst.expressions.Upper
SQLContext.useCompression ( )  :  boolean

to the top

Removed Methods (64)


spark-sql_2.10-1.3.0.jar, BaseRelation.class
package org.apache.spark.sql.sources
BaseRelation.BaseRelation ( )
BaseRelation.schema ( ) [abstract]  :  org.apache.spark.sql.types.StructType
BaseRelation.sizeInBytes ( )  :  long
BaseRelation.sqlContext ( ) [abstract]  :  org.apache.spark.sql.SQLContext

spark-sql_2.10-1.3.0.jar, DataFrame.class
package org.apache.spark.sql
DataFrame.saveAsParquetFile ( String path )  :  void

spark-sql_2.10-1.3.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, types.StructType schema )  :  DataFrame
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, String schemaString )  :  DataFrame
SQLContext.baseRelationToDataFrame ( sources.BaseRelation baseRelation )  :  DataFrame
SQLContext.cacheManager ( )  :  CacheManager
SQLContext.checkAnalysis ( )  :  catalyst.analysis.CheckAnalysis
SQLContext.clearCache ( )  :  void
SQLContext.conf ( )  :  SQLConf
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<?> rdd, Class<?> beanClass )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, java.util.List<String> columns )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, types.StructType schema )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<?> rdd, Class<?> beanClass )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<A> rdd, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<Row> rowRDD, types.StructType schema )  :  DataFrame
SQLContext.createDataFrame ( scala.collection.Seq<A> data, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String path )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String path, String source )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, java.util.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, types.StructType schema, java.util.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, types.StructType schema, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.ddlParser ( )  :  sources.DDLParser
SQLContext.dropTempTable ( String tableName )  :  void
SQLContext.emptyDataFrame ( )  :  DataFrame
SQLContext.experimental ( )  :  ExperimentalMethods
SQLContext.getSchema ( Class<?> beanClass )  :  scala.collection.Seq<catalyst.expressions.AttributeReference>
SQLContext.implicits ( )  :  SQLContext.implicits.
SQLContext.jdbc ( String url, String table )  :  DataFrame
SQLContext.jdbc ( String url, String table, String columnName, long lowerBound, long upperBound, int numPartitions )  :  DataFrame
SQLContext.jdbc ( String url, String table, String[ ] theParts )  :  DataFrame
SQLContext.jsonFile ( String path )  :  DataFrame
SQLContext.jsonFile ( String path, double samplingRatio )  :  DataFrame
SQLContext.jsonFile ( String path, types.StructType schema )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json, double samplingRatio )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json, types.StructType schema )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, double samplingRatio )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, types.StructType schema )  :  DataFrame
SQLContext.load ( String path )  :  DataFrame
SQLContext.load ( String path, String source )  :  DataFrame
SQLContext.load ( String source, java.util.Map<String,String> options )  :  DataFrame
SQLContext.load ( String source, types.StructType schema, java.util.Map<String,String> options )  :  DataFrame
SQLContext.load ( String source, types.StructType schema, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.load ( String source, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer
SQLContext.parquetFile ( scala.collection.Seq<String> paths )  :  DataFrame
SQLContext.parquetFile ( String... paths )  :  DataFrame
SQLContext.parseDataType ( String dataTypeString )  :  types.DataType
SQLContext.registerDataFrameAsTable ( DataFrame df, String tableName )  :  void
SQLContext.sql ( String sqlText )  :  DataFrame
SQLContext.SQLContext ( org.apache.spark.api.java.JavaSparkContext sparkContext )
SQLContext.sqlParser ( )  :  SparkSQLParser
SQLContext.table ( String tableName )  :  DataFrame
SQLContext.tableNames ( )  :  String[ ]
SQLContext.tableNames ( String databaseName )  :  String[ ]
SQLContext.tables ( )  :  DataFrame
SQLContext.tables ( String databaseName )  :  DataFrame
SQLContext.udf ( )  :  UDFRegistration

spark-sql_2.10-1.3.0.jar, TableScan.class
package org.apache.spark.sql.sources
TableScan.buildScan ( ) [abstract]  :  org.apache.spark.rdd.RDD<org.apache.spark.sql.Row>

to the top

Problems with Data Types, High Severity (4)


spark-sql_2.10-1.3.0.jar
package org.apache.spark.sql
[+] DataFrame (1)
[+] SQLContext.QueryExecution (1)

package org.apache.spark.sql.sources
[+] BaseRelation (1)
[+] TableScan (1)

to the top

Java ARchives (1)


spark-sql_2.10-1.3.0.jar

to the top




Generated on Thu May 14 02:15:20 2015 for spark-sas7bdat-1.0.0-s_2.10 by Java API Compliance Checker 1.4.1  
A tool for checking backward compatibility of a Java library API