Binary compatibility report for the elasticsearch-spark_2.10-2.1.0.Beta2 library  between 1.1.0 and 1.3.0 versions   (relating to the portability of client application elasticsearch-spark_2.10-2.1.0.Beta2.jar)

Test Info


Library Nameelasticsearch-spark_2.10-2.1.0.Beta2
Version #11.1.0
Version #21.3.0
Java Version1.7.0_75

Test Results


Total Java ARchives2
Total Methods / Classes875 / 1440
VerdictIncompatible
(42.7%)

Problem Summary


SeverityCount
Added Methods-104
Removed MethodsHigh327
Problems with
Data Types
High27
Medium0
Low1
Problems with
Methods
High9
Medium0
Low0
Other Changes
in Data Types
-1

Added Methods (104)


spark-core_2.10-1.3.0.jar, JavaSparkContext.class
package org.apache.spark.api.java
JavaSparkContext.binaryFiles ( String path )  :  JavaPairRDD<String,org.apache.spark.input.PortableDataStream>
JavaSparkContext.binaryFiles ( String path, int minPartitions )  :  JavaPairRDD<String,org.apache.spark.input.PortableDataStream>
JavaSparkContext.binaryRecords ( String path, int recordLength )  :  JavaRDD<byte[ ]>
JavaSparkContext.close ( )  :  void
JavaSparkContext.statusTracker ( )  :  JavaSparkStatusTracker

spark-core_2.10-1.3.0.jar, RDD<T>.class
package org.apache.spark.rdd
RDD<T>.doubleRDDToDoubleRDDFunctions ( RDD<Object> p1 ) [static]  :  DoubleRDDFunctions
RDD<T>.isEmpty ( )  :  boolean
RDD<T>.numericRDDToDoubleRDDFunctions ( RDD<T> p1, scala.math.Numeric<T> p2 ) [static]  :  DoubleRDDFunctions
RDD<T>.parent ( int j, scala.reflect.ClassTag<U> p2 )  :  RDD<U>
RDD<T>.rddToAsyncRDDActions ( RDD<T> p1, scala.reflect.ClassTag<T> p2 ) [static]  :  AsyncRDDActions<T>
RDD<T>.rddToOrderedRDDFunctions ( RDD<scala.Tuple2<K,V>> p1, scala.math.Ordering<K> p2, scala.reflect.ClassTag<K> p3, scala.reflect.ClassTag<V> p4 ) [static]  :  OrderedRDDFunctions<K,V,scala.Tuple2<K,V>>
RDD<T>.rddToPairRDDFunctions ( RDD<scala.Tuple2<K,V>> p1, scala.reflect.ClassTag<K> p2, scala.reflect.ClassTag<V> p3, scala.math.Ordering<K> p4 ) [static]  :  PairRDDFunctions<K,V>
RDD<T>.rddToSequenceFileRDDFunctions ( RDD<scala.Tuple2<K,V>> p1, scala.reflect.ClassTag<K> p2, scala.reflect.ClassTag<V> p3, org.apache.spark.WritableFactory<K> p4, org.apache.spark.WritableFactory<V> p5 ) [static]  :  SequenceFileRDDFunctions<K,V>
RDD<T>.treeAggregate ( U zeroValue, scala.Function2<U,T,U> seqOp, scala.Function2<U,U,U> combOp, int depth, scala.reflect.ClassTag<U> p5 )  :  U
RDD<T>.treeReduce ( scala.Function2<T,T,T> f, int depth )  :  T

spark-core_2.10-1.3.0.jar, SparkConf.class
package org.apache.spark
SparkConf.getAppId ( )  :  String
SparkConf.registerKryoClasses ( Class<?>[ ] classes )  :  SparkConf
SparkConf.translateConfKey ( String p1, boolean p2 ) [static]  :  String

spark-core_2.10-1.3.0.jar, SparkContext.class
package org.apache.spark
SparkContext.addFile ( String path, boolean recursive )  :  void
SparkContext.applicationId ( )  :  String
SparkContext.binaryFiles ( String path, int minPartitions )  :  rdd.RDD<scala.Tuple2<String,input.PortableDataStream>>
SparkContext.binaryRecords ( String path, int recordLength, org.apache.hadoop.conf.Configuration conf )  :  rdd.RDD<byte[ ]>
SparkContext.createSparkEnv ( SparkConf conf, boolean isLocal, scheduler.LiveListenerBus listenerBus )  :  SparkEnv
SparkContext.eventLogCodec ( )  :  scala.Option<String>
SparkContext.eventLogDir ( )  :  scala.Option<String>
SparkContext.executorAllocationManager ( )  :  scala.Option<ExecutorAllocationManager>
SparkContext.getExecutorThreadDump ( String executorId )  :  scala.Option<util.ThreadStackTrace[ ]>
SparkContext.isEventLogEnabled ( )  :  boolean
SparkContext.jobProgressListener ( )  :  ui.jobs.JobProgressListener
SparkContext.killExecutor ( String executorId )  :  boolean
SparkContext.killExecutors ( scala.collection.Seq<String> executorIds )  :  boolean
SparkContext.metricsSystem ( )  :  metrics.MetricsSystem
SparkContext.SparkContext..creationSite ( )  :  util.CallSite
SparkContext.progressBar ( )  :  scala.Option<ui.ConsoleProgressBar>
SparkContext.requestExecutors ( int numAdditionalExecutors )  :  boolean
SparkContext.requestTotalExecutors ( int numExecutors )  :  boolean
SparkContext.schedulerBackend ( )  :  scheduler.SchedulerBackend
SparkContext.schedulerBackend_.eq ( scheduler.SchedulerBackend p1 )  :  void
SparkContext.setCallSite ( util.CallSite callSite )  :  void
SparkContext.statusTracker ( )  :  SparkStatusTracker
SparkContext.ui ( )  :  scala.Option<ui.SparkUI>

spark-core_2.10-1.3.0.jar, TaskContext.class
package org.apache.spark
TaskContext.attemptNumber ( ) [abstract]  :  int
TaskContext.get ( ) [static]  :  TaskContext
TaskContext.isRunningLocally ( ) [abstract]  :  boolean
TaskContext.taskAttemptId ( ) [abstract]  :  long
TaskContext.TaskContext ( )

spark-sql_2.10-1.3.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, types.StructType schema )  :  DataFrame
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, String schemaString )  :  DataFrame
SQLContext.baseRelationToDataFrame ( sources.BaseRelation baseRelation )  :  DataFrame
SQLContext.cacheManager ( )  :  CacheManager
SQLContext.checkAnalysis ( )  :  catalyst.analysis.CheckAnalysis
SQLContext.clearCache ( )  :  void
SQLContext.conf ( )  :  SQLConf
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<?> rdd, Class<?> beanClass )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, java.util.List<String> columns )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, types.StructType schema )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<?> rdd, Class<?> beanClass )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<A> rdd, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  DataFrame
SQLContext.createDataFrame ( org.apache.spark.rdd.RDD<Row> rowRDD, types.StructType schema )  :  DataFrame
SQLContext.createDataFrame ( scala.collection.Seq<A> data, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String path )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String path, String source )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, java.util.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, types.StructType schema, java.util.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, types.StructType schema, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.createExternalTable ( String tableName, String source, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.ddlParser ( )  :  sources.DDLParser
SQLContext.dropTempTable ( String tableName )  :  void
SQLContext.emptyDataFrame ( )  :  DataFrame
SQLContext.experimental ( )  :  ExperimentalMethods
SQLContext.getSchema ( Class<?> beanClass )  :  scala.collection.Seq<catalyst.expressions.AttributeReference>
SQLContext.implicits ( )  :  SQLContext.implicits.
SQLContext.jdbc ( String url, String table )  :  DataFrame
SQLContext.jdbc ( String url, String table, String columnName, long lowerBound, long upperBound, int numPartitions )  :  DataFrame
SQLContext.jdbc ( String url, String table, String[ ] theParts )  :  DataFrame
SQLContext.jsonFile ( String path )  :  DataFrame
SQLContext.jsonFile ( String path, double samplingRatio )  :  DataFrame
SQLContext.jsonFile ( String path, types.StructType schema )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json, double samplingRatio )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json, types.StructType schema )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, double samplingRatio )  :  DataFrame
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, types.StructType schema )  :  DataFrame
SQLContext.load ( String path )  :  DataFrame
SQLContext.load ( String path, String source )  :  DataFrame
SQLContext.load ( String source, java.util.Map<String,String> options )  :  DataFrame
SQLContext.load ( String source, types.StructType schema, java.util.Map<String,String> options )  :  DataFrame
SQLContext.load ( String source, types.StructType schema, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.load ( String source, scala.collection.immutable.Map<String,String> options )  :  DataFrame
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer
SQLContext.parquetFile ( scala.collection.Seq<String> paths )  :  DataFrame
SQLContext.parquetFile ( String... paths )  :  DataFrame
SQLContext.parseDataType ( String dataTypeString )  :  types.DataType
SQLContext.registerDataFrameAsTable ( DataFrame df, String tableName )  :  void
SQLContext.sql ( String sqlText )  :  DataFrame
SQLContext.SQLContext ( org.apache.spark.api.java.JavaSparkContext sparkContext )
SQLContext.sqlParser ( )  :  SparkSQLParser
SQLContext.table ( String tableName )  :  DataFrame
SQLContext.tableNames ( )  :  String[ ]
SQLContext.tableNames ( String databaseName )  :  String[ ]
SQLContext.tables ( )  :  DataFrame
SQLContext.tables ( String databaseName )  :  DataFrame
SQLContext.udf ( )  :  UDFRegistration

to the top

Removed Methods (327)


spark-core_2.10-1.1.0.jar, SparkConf.class
package org.apache.spark
SparkConf.settings ( )  :  scala.collection.mutable.HashMap<String,String>

spark-core_2.10-1.1.0.jar, SparkContext.class
package org.apache.spark
SparkContext.ui ( )  :  ui.SparkUI

spark-core_2.10-1.1.0.jar, TaskContext.class
package org.apache.spark
TaskContext.markInterrupted ( )  :  void
TaskContext.markTaskCompleted ( )  :  void
TaskContext.TaskContext ( int stageId, int partitionId, long attemptId, boolean runningLocally, executor.TaskMetrics taskMetrics )

spark-sql_2.10-1.1.0.jar, ArrayType.class
package org.apache.spark.sql.api.java
ArrayType.getElementType ( )  :  DataType
ArrayType.isContainsNull ( )  :  boolean

spark-sql_2.10-1.1.0.jar, DataType.class
package org.apache.spark.sql.api.java
DataType.createArrayType ( DataType elementType ) [static]  :  ArrayType
DataType.createArrayType ( DataType elementType, boolean containsNull ) [static]  :  ArrayType
DataType.createMapType ( DataType keyType, DataType valueType ) [static]  :  MapType
DataType.createMapType ( DataType keyType, DataType valueType, boolean valueContainsNull ) [static]  :  MapType
DataType.createStructField ( String name, DataType dataType, boolean nullable ) [static]  :  StructField
DataType.createStructType ( java.util.List<StructField> fields ) [static]  :  StructType
DataType.createStructType ( StructField[ ] fields ) [static]  :  StructType
DataType.DataType ( )

spark-sql_2.10-1.1.0.jar, JavaSchemaRDD.class
package org.apache.spark.sql.api.java
JavaSchemaRDD.aggregate ( U zeroValue, org.apache.spark.api.java.function.Function2<U,Row,U> seqOp, org.apache.spark.api.java.function.Function2<U,U,U> combOp )  :  U
JavaSchemaRDD.baseLogicalPlan ( )  :  org.apache.spark.sql.catalyst.plans.logical.LogicalPlan
JavaSchemaRDD.baseSchemaRDD ( )  :  org.apache.spark.sql.SchemaRDD
JavaSchemaRDD.cache ( )  :  JavaSchemaRDD
JavaSchemaRDD.cartesian ( org.apache.spark.api.java.JavaRDDLike<U,?> other )  :  org.apache.spark.api.java.JavaPairRDD<Row,U>
JavaSchemaRDD.checkpoint ( )  :  void
JavaSchemaRDD.classTag ( )  :  scala.reflect.ClassTag<Row>
JavaSchemaRDD.coalesce ( int numPartitions, boolean shuffle )  :  JavaSchemaRDD
JavaSchemaRDD.collect ( )  :  java.util.List<Row>
JavaSchemaRDD.collectPartitions ( int[ ] partitionIds )  :  java.util.List<Row>[ ]
JavaSchemaRDD.context ( )  :  org.apache.spark.SparkContext
JavaSchemaRDD.count ( )  :  long
JavaSchemaRDD.countApprox ( long timeout )  :  org.apache.spark.partial.PartialResult<org.apache.spark.partial.BoundedDouble>
JavaSchemaRDD.countApprox ( long timeout, double confidence )  :  org.apache.spark.partial.PartialResult<org.apache.spark.partial.BoundedDouble>
JavaSchemaRDD.countApproxDistinct ( double relativeSD )  :  long
JavaSchemaRDD.countByValue ( )  :  java.util.Map<Row,Long>
JavaSchemaRDD.countByValueApprox ( long timeout )  :  org.apache.spark.partial.PartialResult<java.util.Map<Row,org.apache.spark.partial.BoundedDouble>>
JavaSchemaRDD.countByValueApprox ( long timeout, double confidence )  :  org.apache.spark.partial.PartialResult<java.util.Map<Row,org.apache.spark.partial.BoundedDouble>>
JavaSchemaRDD.distinct ( )  :  JavaSchemaRDD
JavaSchemaRDD.distinct ( int numPartitions )  :  JavaSchemaRDD
JavaSchemaRDD.filter ( org.apache.spark.api.java.function.Function<Row,Boolean> f )  :  JavaSchemaRDD
JavaSchemaRDD.first ( )  :  Object
JavaSchemaRDD.flatMap ( org.apache.spark.api.java.function.FlatMapFunction<Row,U> f )  :  org.apache.spark.api.java.JavaRDD<U>
JavaSchemaRDD.flatMapToDouble ( org.apache.spark.api.java.function.DoubleFlatMapFunction<Row> f )  :  org.apache.spark.api.java.JavaDoubleRDD
JavaSchemaRDD.flatMapToPair ( org.apache.spark.api.java.function.PairFlatMapFunction<Row,K2,V2> f )  :  org.apache.spark.api.java.JavaPairRDD<K2,V2>
JavaSchemaRDD.fold ( Row zeroValue, org.apache.spark.api.java.function.Function2<Row,Row,Row> f )  :  Row
JavaSchemaRDD.foreach ( org.apache.spark.api.java.function.VoidFunction<Row> f )  :  void
JavaSchemaRDD.foreachPartition ( org.apache.spark.api.java.function.VoidFunction<java.util.Iterator<Row>> f )  :  void
JavaSchemaRDD.getCheckpointFile ( )  :  com.google.common.base.Optional<String>
JavaSchemaRDD.getStorageLevel ( )  :  org.apache.spark.storage.StorageLevel
JavaSchemaRDD.glom ( )  :  org.apache.spark.api.java.JavaRDD<java.util.List<Row>>
JavaSchemaRDD.groupBy ( org.apache.spark.api.java.function.Function<Row,K> f )  :  org.apache.spark.api.java.JavaPairRDD<K,Iterable<Row>>
JavaSchemaRDD.groupBy ( org.apache.spark.api.java.function.Function<Row,K> f, int numPartitions )  :  org.apache.spark.api.java.JavaPairRDD<K,Iterable<Row>>
JavaSchemaRDD.id ( )  :  int
JavaSchemaRDD.insertInto ( String tableName )  :  void
JavaSchemaRDD.insertInto ( String tableName, boolean overwrite )  :  void
JavaSchemaRDD.intersection ( JavaSchemaRDD other )  :  JavaSchemaRDD
JavaSchemaRDD.intersection ( JavaSchemaRDD other, int numPartitions )  :  JavaSchemaRDD
JavaSchemaRDD.intersection ( JavaSchemaRDD other, org.apache.spark.Partitioner partitioner )  :  JavaSchemaRDD
JavaSchemaRDD.isCheckpointed ( )  :  boolean
JavaSchemaRDD.iterator ( org.apache.spark.Partition split, org.apache.spark.TaskContext taskContext )  :  java.util.Iterator<Row>
JavaSchemaRDD.JavaSchemaRDD ( org.apache.spark.sql.SQLContext sqlContext, org.apache.spark.sql.catalyst.plans.logical.LogicalPlan baseLogicalPlan )
JavaSchemaRDD.keyBy ( org.apache.spark.api.java.function.Function<Row,K> f )  :  org.apache.spark.api.java.JavaPairRDD<K,Row>
JavaSchemaRDD.logicalPlan ( )  :  org.apache.spark.sql.catalyst.plans.logical.LogicalPlan
JavaSchemaRDD.map ( org.apache.spark.api.java.function.Function<Row,R> f )  :  org.apache.spark.api.java.JavaRDD<R>
JavaSchemaRDD.mapPartitions ( org.apache.spark.api.java.function.FlatMapFunction<java.util.Iterator<Row>,U> f )  :  org.apache.spark.api.java.JavaRDD<U>
JavaSchemaRDD.mapPartitions ( org.apache.spark.api.java.function.FlatMapFunction<java.util.Iterator<Row>,U> f, boolean preservesPartitioning )  :  org.apache.spark.api.java.JavaRDD<U>
JavaSchemaRDD.mapPartitionsToDouble ( org.apache.spark.api.java.function.DoubleFlatMapFunction<java.util.Iterator<Row>> f )  :  org.apache.spark.api.java.JavaDoubleRDD
JavaSchemaRDD.mapPartitionsToDouble ( org.apache.spark.api.java.function.DoubleFlatMapFunction<java.util.Iterator<Row>> f, boolean preservesPartitioning )  :  org.apache.spark.api.java.JavaDoubleRDD
JavaSchemaRDD.mapPartitionsToPair ( org.apache.spark.api.java.function.PairFlatMapFunction<java.util.Iterator<Row>,K2,V2> f )  :  org.apache.spark.api.java.JavaPairRDD<K2,V2>
JavaSchemaRDD.mapPartitionsToPair ( org.apache.spark.api.java.function.PairFlatMapFunction<java.util.Iterator<Row>,K2,V2> f, boolean preservesPartitioning )  :  org.apache.spark.api.java.JavaPairRDD<K2,V2>
JavaSchemaRDD.mapPartitionsWithIndex ( org.apache.spark.api.java.function.Function2<Integer,java.util.Iterator<Row>,java.util.Iterator<R>> f, boolean preservesPartitioning )  :  org.apache.spark.api.java.JavaRDD<R>
JavaSchemaRDD.mapToDouble ( org.apache.spark.api.java.function.DoubleFunction<Row> f )  :  org.apache.spark.api.java.JavaDoubleRDD
JavaSchemaRDD.mapToPair ( org.apache.spark.api.java.function.PairFunction<Row,K2,V2> f )  :  org.apache.spark.api.java.JavaPairRDD<K2,V2>
JavaSchemaRDD.max ( java.util.Comparator<Row> comp )  :  Row
JavaSchemaRDD.min ( java.util.Comparator<Row> comp )  :  Row
JavaSchemaRDD.name ( )  :  String
JavaSchemaRDD.org.apache.spark.sql.SchemaRDDLike..super.toString ( )  :  String
JavaSchemaRDD.org.apache.spark.sql.SchemaRDDLike._setter_.logicalPlan_.eq ( org.apache.spark.sql.catalyst.plans.logical.LogicalPlan p1 )  :  void
JavaSchemaRDD.partitions ( )  :  java.util.List<org.apache.spark.Partition>
JavaSchemaRDD.persist ( )  :  JavaSchemaRDD
JavaSchemaRDD.persist ( org.apache.spark.storage.StorageLevel newLevel )  :  JavaSchemaRDD
JavaSchemaRDD.pipe ( java.util.List<String> command )  :  org.apache.spark.api.java.JavaRDD<String>
JavaSchemaRDD.pipe ( java.util.List<String> command, java.util.Map<String,String> env )  :  org.apache.spark.api.java.JavaRDD<String>
JavaSchemaRDD.pipe ( String command )  :  org.apache.spark.api.java.JavaRDD<String>
JavaSchemaRDD.printSchema ( )  :  void
JavaSchemaRDD.queryExecution ( )  :  org.apache.spark.sql.SQLContext.QueryExecution
JavaSchemaRDD.rdd ( )  :  org.apache.spark.rdd.RDD<Row>
JavaSchemaRDD.reduce ( org.apache.spark.api.java.function.Function2<Row,Row,Row> f )  :  Row
JavaSchemaRDD.registerTempTable ( String tableName )  :  void
JavaSchemaRDD.repartition ( int numPartitions )  :  JavaSchemaRDD
JavaSchemaRDD.saveAsObjectFile ( String path )  :  void
JavaSchemaRDD.saveAsParquetFile ( String path )  :  void
JavaSchemaRDD.saveAsTable ( String tableName )  :  void
JavaSchemaRDD.saveAsTextFile ( String path )  :  void
JavaSchemaRDD.saveAsTextFile ( String path, Class<? extends org.apache.hadoop.io.compress.CompressionCodec> codec )  :  void
JavaSchemaRDD.schema ( )  :  StructType
JavaSchemaRDD.schemaString ( )  :  String
JavaSchemaRDD.setName ( String name )  :  JavaSchemaRDD
JavaSchemaRDD.sqlContext ( )  :  org.apache.spark.sql.SQLContext
JavaSchemaRDD.subtract ( JavaSchemaRDD other )  :  JavaSchemaRDD
JavaSchemaRDD.subtract ( JavaSchemaRDD other, int numPartitions )  :  JavaSchemaRDD
JavaSchemaRDD.subtract ( JavaSchemaRDD other, org.apache.spark.Partitioner p )  :  JavaSchemaRDD
JavaSchemaRDD.take ( int num )  :  java.util.List<Row>
JavaSchemaRDD.takeOrdered ( int num )  :  java.util.List<Row>
JavaSchemaRDD.takeOrdered ( int num, java.util.Comparator<Row> comp )  :  java.util.List<Row>
JavaSchemaRDD.takeSample ( boolean withReplacement, int num )  :  java.util.List<Row>
JavaSchemaRDD.takeSample ( boolean withReplacement, int num, long seed )  :  java.util.List<Row>
JavaSchemaRDD.toArray ( )  :  java.util.List<Row>
JavaSchemaRDD.toDebugString ( )  :  String
JavaSchemaRDD.toLocalIterator ( )  :  java.util.Iterator<Row>
JavaSchemaRDD.top ( int num )  :  java.util.List<Row>
JavaSchemaRDD.top ( int num, java.util.Comparator<Row> comp )  :  java.util.List<Row>
JavaSchemaRDD.toString ( )  :  String
JavaSchemaRDD.unpersist ( boolean blocking )  :  JavaSchemaRDD
JavaSchemaRDD.wrapRDD ( org.apache.spark.rdd.RDD rdd )  :  org.apache.spark.api.java.JavaRDDLike
JavaSchemaRDD.wrapRDD ( org.apache.spark.rdd.RDD<Row> rdd )  :  org.apache.spark.api.java.JavaRDD<Row>
JavaSchemaRDD.zip ( org.apache.spark.api.java.JavaRDDLike<U,?> other )  :  org.apache.spark.api.java.JavaPairRDD<Row,U>
JavaSchemaRDD.zipPartitions ( org.apache.spark.api.java.JavaRDDLike<U,?> other, org.apache.spark.api.java.function.FlatMapFunction2<java.util.Iterator<Row>,java.util.Iterator<U>,V> f )  :  org.apache.spark.api.java.JavaRDD<V>
JavaSchemaRDD.zipWithIndex ( )  :  org.apache.spark.api.java.JavaPairRDD<Row,Long>
JavaSchemaRDD.zipWithUniqueId ( )  :  org.apache.spark.api.java.JavaPairRDD<Row,Long>

spark-sql_2.10-1.1.0.jar, JavaSQLContext.class
package org.apache.spark.sql.api.java
JavaSQLContext.applySchema ( org.apache.spark.api.java.JavaRDD<?> rdd, Class<?> beanClass )  :  JavaSchemaRDD
JavaSQLContext.applySchema ( org.apache.spark.api.java.JavaRDD<Row> rowRDD, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.createParquetFile ( Class<?> beanClass, String path, boolean allowExisting, org.apache.hadoop.conf.Configuration conf )  :  JavaSchemaRDD
JavaSQLContext.getSchema ( Class<?> beanClass )  :  scala.collection.Seq<org.apache.spark.sql.catalyst.expressions.AttributeReference>
JavaSQLContext.JavaSQLContext ( org.apache.spark.api.java.JavaSparkContext sparkContext )
JavaSQLContext.JavaSQLContext ( org.apache.spark.sql.SQLContext sqlContext )
JavaSQLContext.jsonFile ( String path )  :  JavaSchemaRDD
JavaSQLContext.jsonFile ( String path, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json )  :  JavaSchemaRDD
JavaSQLContext.jsonRDD ( org.apache.spark.api.java.JavaRDD<String> json, StructType schema )  :  JavaSchemaRDD
JavaSQLContext.parquetFile ( String path )  :  JavaSchemaRDD
JavaSQLContext.registerFunction ( String name, UDF10<?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF11<?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF12<?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF13<?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF14<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF15<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF16<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF17<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF18<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF19<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF1<?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF20<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF21<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF22<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF2<?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF3<?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF4<?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF5<?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF6<?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF7<?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF8<?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerFunction ( String name, UDF9<?,?,?,?,?,?,?,?,?,?> f, DataType dataType )  :  void
JavaSQLContext.registerRDDAsTable ( JavaSchemaRDD rdd, String tableName )  :  void
JavaSQLContext.sql ( String sqlText )  :  JavaSchemaRDD
JavaSQLContext.sqlContext ( )  :  org.apache.spark.sql.SQLContext

spark-sql_2.10-1.1.0.jar, MapType.class
package org.apache.spark.sql.api.java
MapType.getKeyType ( )  :  DataType
MapType.getValueType ( )  :  DataType
MapType.isValueContainsNull ( )  :  boolean

spark-sql_2.10-1.1.0.jar, Row.class
package org.apache.spark.sql.api.java
Row.canEqual ( Object other )  :  boolean
Row.create ( Object... p1 ) [static]  :  Row
Row.create ( scala.collection.Seq<Object> p1 ) [static]  :  Row
Row.equals ( Object other )  :  boolean
Row.get ( int i )  :  Object
Row.getBoolean ( int i )  :  boolean
Row.getByte ( int i )  :  byte
Row.getDouble ( int i )  :  double
Row.getFloat ( int i )  :  float
Row.getInt ( int i )  :  int
Row.getLong ( int i )  :  long
Row.getShort ( int i )  :  short
Row.getString ( int i )  :  String
Row.hashCode ( )  :  int
Row.isNullAt ( int i )  :  boolean
Row.length ( )  :  int
Row.row ( )  :  org.apache.spark.sql.catalyst.expressions.Row
Row.Row ( org.apache.spark.sql.catalyst.expressions.Row row )

spark-sql_2.10-1.1.0.jar, SchemaRDD.class
package org.apache.spark.sql
SchemaRDD.aggregate ( scala.collection.Seq<catalyst.expressions.Expression> aggregateExprs )  :  SchemaRDD
SchemaRDD.as ( scala.Symbol alias )  :  SchemaRDD
SchemaRDD.baseLogicalPlan ( )  :  catalyst.plans.logical.LogicalPlan
SchemaRDD.baseSchemaRDD ( )  :  SchemaRDD
SchemaRDD.coalesce ( int numPartitions, boolean shuffle, scala.math.Ordering ord )  :  org.apache.spark.rdd.RDD
SchemaRDD.coalesce ( int numPartitions, boolean shuffle, scala.math.Ordering<catalyst.expressions.Row> ord )  :  SchemaRDD
SchemaRDD.collect ( )  :  Object
SchemaRDD.collect ( )  :  catalyst.expressions.Row[ ]
SchemaRDD.compute ( org.apache.spark.Partition split, org.apache.spark.TaskContext context )  :  scala.collection.Iterator<catalyst.expressions.Row>
SchemaRDD.count ( )  :  long
SchemaRDD.distinct ( )  :  org.apache.spark.rdd.RDD
SchemaRDD.distinct ( )  :  SchemaRDD
SchemaRDD.distinct ( int numPartitions, scala.math.Ordering ord )  :  org.apache.spark.rdd.RDD
SchemaRDD.distinct ( int numPartitions, scala.math.Ordering<catalyst.expressions.Row> ord )  :  SchemaRDD
SchemaRDD.except ( SchemaRDD otherPlan )  :  SchemaRDD
SchemaRDD.filter ( scala.Function1 f )  :  org.apache.spark.rdd.RDD
SchemaRDD.filter ( scala.Function1<catalyst.expressions.Row,Object> f )  :  SchemaRDD
SchemaRDD.generate ( catalyst.expressions.Generator generator, boolean join, boolean outer, scala.Option<String> alias )  :  SchemaRDD
SchemaRDD.getDependencies ( )  :  scala.collection.Seq<org.apache.spark.Dependency<?>>
SchemaRDD.getPartitions ( )  :  org.apache.spark.Partition[ ]
SchemaRDD.groupBy ( scala.collection.Seq<catalyst.expressions.Expression> groupingExprs, scala.collection.Seq<catalyst.expressions.Expression> aggregateExprs )  :  SchemaRDD
SchemaRDD.insertInto ( String tableName )  :  void
SchemaRDD.insertInto ( String tableName, boolean overwrite )  :  void
SchemaRDD.intersect ( SchemaRDD otherPlan )  :  SchemaRDD
SchemaRDD.intersection ( org.apache.spark.rdd.RDD other )  :  org.apache.spark.rdd.RDD
SchemaRDD.intersection ( org.apache.spark.rdd.RDD other, int numPartitions )  :  org.apache.spark.rdd.RDD
SchemaRDD.intersection ( org.apache.spark.rdd.RDD other, org.apache.spark.Partitioner partitioner, scala.math.Ordering ord )  :  org.apache.spark.rdd.RDD
SchemaRDD.intersection ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> other )  :  SchemaRDD
SchemaRDD.intersection ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> other, int numPartitions )  :  SchemaRDD
SchemaRDD.intersection ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> other, org.apache.spark.Partitioner partitioner, scala.math.Ordering<catalyst.expressions.Row> ord )  :  SchemaRDD
SchemaRDD.javaToPython ( )  :  org.apache.spark.api.java.JavaRDD<byte[ ]>
SchemaRDD.join ( SchemaRDD otherPlan, catalyst.plans.JoinType joinType, scala.Option<catalyst.expressions.Expression> on )  :  SchemaRDD
SchemaRDD.limit ( int limitNum )  :  SchemaRDD
SchemaRDD.logicalPlan ( )  :  catalyst.plans.logical.LogicalPlan
SchemaRDD.orderBy ( scala.collection.Seq<catalyst.expressions.SortOrder> sortExprs )  :  SchemaRDD
SchemaRDD.SchemaRDDLike..super.toString ( )  :  String
SchemaRDD.SchemaRDDLike._setter_.logicalPlan_.eq ( catalyst.plans.logical.LogicalPlan p1 )  :  void
SchemaRDD.printSchema ( )  :  void
SchemaRDD.queryExecution ( )  :  SQLContext.QueryExecution
SchemaRDD.registerTempTable ( String tableName )  :  void
SchemaRDD.repartition ( int numPartitions, scala.math.Ordering ord )  :  org.apache.spark.rdd.RDD
SchemaRDD.repartition ( int numPartitions, scala.math.Ordering<catalyst.expressions.Row> ord )  :  SchemaRDD
SchemaRDD.sample ( boolean withReplacement, double fraction, long seed )  :  org.apache.spark.rdd.RDD
SchemaRDD.sample ( boolean withReplacement, double fraction, long seed )  :  SchemaRDD
SchemaRDD.saveAsParquetFile ( String path )  :  void
SchemaRDD.saveAsTable ( String tableName )  :  void
SchemaRDD.schema ( )  :  catalyst.types.StructType
SchemaRDD.SchemaRDD ( SQLContext sqlContext, catalyst.plans.logical.LogicalPlan baseLogicalPlan )
SchemaRDD.schemaString ( )  :  String
SchemaRDD.select ( scala.collection.Seq<catalyst.expressions.Expression> exprs )  :  SchemaRDD
SchemaRDD.sqlContext ( )  :  SQLContext
SchemaRDD.subtract ( org.apache.spark.rdd.RDD other )  :  org.apache.spark.rdd.RDD
SchemaRDD.subtract ( org.apache.spark.rdd.RDD other, int numPartitions )  :  org.apache.spark.rdd.RDD
SchemaRDD.subtract ( org.apache.spark.rdd.RDD other, org.apache.spark.Partitioner p, scala.math.Ordering ord )  :  org.apache.spark.rdd.RDD
SchemaRDD.subtract ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> other )  :  SchemaRDD
SchemaRDD.subtract ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> other, int numPartitions )  :  SchemaRDD
SchemaRDD.subtract ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> other, org.apache.spark.Partitioner p, scala.math.Ordering<catalyst.expressions.Row> ord )  :  SchemaRDD
SchemaRDD.take ( int num )  :  Object
SchemaRDD.take ( int num )  :  catalyst.expressions.Row[ ]
SchemaRDD.toJavaSchemaRDD ( )  :  api.java.JavaSchemaRDD
SchemaRDD.toSchemaRDD ( )  :  SchemaRDD
SchemaRDD.toString ( )  :  String
SchemaRDD.unionAll ( SchemaRDD otherPlan )  :  SchemaRDD
SchemaRDD.where ( catalyst.expressions.Expression condition )  :  SchemaRDD
SchemaRDD.where ( scala.Function1<catalyst.expressions.DynamicRow,Object> dynamicUdf )  :  SchemaRDD
SchemaRDD.where ( scala.Symbol arg1, scala.Function1<T1,Object> udf )  :  SchemaRDD

spark-sql_2.10-1.1.0.jar, SQLContext.class
package org.apache.spark.sql
SQLContext.applySchema ( org.apache.spark.rdd.RDD<catalyst.expressions.Row> rowRDD, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.applySchemaToPythonRDD ( org.apache.spark.rdd.RDD<Object[ ]> rdd, String schemaString )  :  SchemaRDD
SQLContext.approxCountDistinct ( catalyst.expressions.Expression e, double rsd )  :  catalyst.expressions.ApproxCountDistinct
SQLContext.autoBroadcastJoinThreshold ( )  :  int
SQLContext.avg ( catalyst.expressions.Expression e )  :  catalyst.expressions.Average
SQLContext.binaryToLiteral ( byte[ ] a )  :  catalyst.expressions.Literal
SQLContext.booleanToLiteral ( boolean b )  :  catalyst.expressions.Literal
SQLContext.byteToLiteral ( byte b )  :  catalyst.expressions.Literal
SQLContext.clear ( )  :  void
SQLContext.codegenEnabled ( )  :  boolean
SQLContext.columnBatchSize ( )  :  int
SQLContext.count ( catalyst.expressions.Expression e )  :  catalyst.expressions.Count
SQLContext.countDistinct ( scala.collection.Seq<catalyst.expressions.Expression> e )  :  catalyst.expressions.CountDistinct
SQLContext.createParquetFile ( String path, boolean allowExisting, org.apache.hadoop.conf.Configuration conf, scala.reflect.api.TypeTags.TypeTag<A> p4 )  :  SchemaRDD
SQLContext.createSchemaRDD ( org.apache.spark.rdd.RDD<A> rdd, scala.reflect.api.TypeTags.TypeTag<A> p2 )  :  SchemaRDD
SQLContext.decimalToLiteral ( scala.math.BigDecimal d )  :  catalyst.expressions.Literal
SQLContext.defaultSizeInBytes ( )  :  long
SQLContext.dialect ( )  :  String
SQLContext.doubleToLiteral ( double d )  :  catalyst.expressions.Literal
SQLContext.DslAttribute ( catalyst.expressions.AttributeReference a )  :  catalyst.dsl.package.ExpressionConversions.DslAttribute
SQLContext.DslExpression ( catalyst.expressions.Expression e )  :  catalyst.dsl.package.ExpressionConversions.DslExpression
SQLContext.DslString ( String s )  :  catalyst.dsl.package.ExpressionConversions.DslString
SQLContext.DslSymbol ( scala.Symbol sym )  :  catalyst.dsl.package.ExpressionConversions.DslSymbol
SQLContext.first ( catalyst.expressions.Expression e )  :  catalyst.expressions.First
SQLContext.floatToLiteral ( float f )  :  catalyst.expressions.Literal
SQLContext.intToLiteral ( int i )  :  catalyst.expressions.Literal
SQLContext.isParquetBinaryAsString ( )  :  boolean
SQLContext.jsonFile ( String path )  :  SchemaRDD
SQLContext.jsonFile ( String path, double samplingRatio )  :  SchemaRDD
SQLContext.jsonFile ( String path, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, double samplingRatio )  :  SchemaRDD
SQLContext.jsonRDD ( org.apache.spark.rdd.RDD<String> json, catalyst.types.StructType schema )  :  SchemaRDD
SQLContext.logicalPlanToSparkQuery ( catalyst.plans.logical.LogicalPlan plan )  :  SchemaRDD
SQLContext.longToLiteral ( long l )  :  catalyst.expressions.Literal
SQLContext.lower ( catalyst.expressions.Expression e )  :  catalyst.expressions.Lower
SQLContext.max ( catalyst.expressions.Expression e )  :  catalyst.expressions.Max
SQLContext.min ( catalyst.expressions.Expression e )  :  catalyst.expressions.Min
SQLContext.numShufflePartitions ( )  :  int
SQLContext.optimizer ( )  :  catalyst.optimizer.Optimizer.
SQLContext.SQLConf._setter_.settings_.eq ( java.util.Map p1 )  :  void
SQLContext.parquetCompressionCodec ( )  :  String
SQLContext.parquetFile ( String path )  :  SchemaRDD
SQLContext.parseDataType ( String dataTypeString )  :  catalyst.types.DataType
SQLContext.parser ( )  :  catalyst.SqlParser
SQLContext.registerFunction ( String name, scala.Function10<?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function11<?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function12<?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function13<?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function14<?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function15<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function16<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function17<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function18<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function19<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function1<?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function20<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function21<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function22<?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function2<?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function3<?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function4<?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function5<?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function6<?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function7<?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function8<?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerFunction ( String name, scala.Function9<?,?,?,?,?,?,?,?,?,T> func, scala.reflect.api.TypeTags.TypeTag<T> p3 )  :  void
SQLContext.registerPython ( String name, byte[ ] command, java.util.Map<String,String> envVars, java.util.List<String> pythonIncludes, String pythonExec, org.apache.spark.Accumulator<java.util.List<byte[ ]>> accumulator, String stringDataType )  :  void
SQLContext.registerRDDAsTable ( SchemaRDD rdd, String tableName )  :  void
SQLContext.settings ( )  :  java.util.Map<String,String>
SQLContext.shortToLiteral ( short s )  :  catalyst.expressions.Literal
SQLContext.sql ( String sqlText )  :  SchemaRDD
SQLContext.stringToLiteral ( String s )  :  catalyst.expressions.Literal
SQLContext.sum ( catalyst.expressions.Expression e )  :  catalyst.expressions.Sum
SQLContext.sumDistinct ( catalyst.expressions.Expression e )  :  catalyst.expressions.SumDistinct
SQLContext.symbolToUnresolvedAttribute ( scala.Symbol s )  :  catalyst.analysis.UnresolvedAttribute
SQLContext.table ( String tableName )  :  SchemaRDD
SQLContext.timestampToLiteral ( java.sql.Timestamp t )  :  catalyst.expressions.Literal
SQLContext.upper ( catalyst.expressions.Expression e )  :  catalyst.expressions.Upper
SQLContext.useCompression ( )  :  boolean

spark-sql_2.10-1.1.0.jar, StructField.class
package org.apache.spark.sql.api.java
StructField.equals ( Object o )  :  boolean
StructField.getDataType ( )  :  DataType
StructField.getName ( )  :  String
StructField.hashCode ( )  :  int
StructField.isNullable ( )  :  boolean
StructField.StructField ( String name, DataType dataType, boolean nullable )

spark-sql_2.10-1.1.0.jar, StructType.class
package org.apache.spark.sql.api.java
StructType.getFields ( )  :  StructField[ ]

to the top

Problems with Data Types, High Severity (27)


spark-core_2.10-1.1.0.jar
package org.apache.spark
[+] TaskContext (14)

package org.apache.spark.rdd
[+] PairRDDFunctions<K,V> (1)

spark-sql_2.10-1.1.0.jar
package org.apache.spark.sql
[+] SchemaRDD (1)
[+] SQLContext (3)

package org.apache.spark.sql.api.java
[+] ArrayType (1)
[+] DataType (1)
[+] JavaSchemaRDD (1)
[+] JavaSQLContext (1)
[+] MapType (1)
[+] Row (1)
[+] StructField (1)
[+] StructType (1)

to the top

Problems with Methods, High Severity (9)


spark-core_2.10-1.1.0.jar, TaskContext
package org.apache.spark
[+] TaskContext.addTaskCompletionListener ( util.TaskCompletionListener listener )  :  TaskContext (1)
[+] TaskContext.addTaskCompletionListener ( scala.Function1<TaskContext,scala.runtime.BoxedUnit> f )  :  TaskContext (1)
[+] TaskContext.attemptId ( )  :  long (1)
[+] TaskContext.isCompleted ( )  :  boolean (1)
[+] TaskContext.isInterrupted ( )  :  boolean (1)
[+] TaskContext.partitionId ( )  :  int (1)
[+] TaskContext.runningLocally ( )  :  boolean (1)
[+] TaskContext.stageId ( )  :  int (1)
[+] TaskContext.taskMetrics ( )  :  executor.TaskMetrics (1)

to the top

Problems with Data Types, Low Severity (1)


spark-core_2.10-1.1.0.jar
package org.apache.spark.scheduler
[+] LiveListenerBus (1)

to the top

Other Changes in Data Types (1)


spark-core_2.10-1.1.0.jar
package org.apache.spark.broadcast
[+] Broadcast<T> (1)

to the top

Java ARchives (2)


spark-core_2.10-1.1.0.jar
spark-sql_2.10-1.1.0.jar

to the top




Generated on Mon Jun 29 20:34:52 2015 for elasticsearch-spark_2.10-2.1.0.Beta2 by Java API Compliance Checker 1.4.1  
A tool for checking backward compatibility of a Java library API