我定义了以下函数:
import org.apache.spark.sql.catalyst.{ScalaReflection}
import ScalaReflection.universe
import universe.TypeTag
def scalaTypesFor(dataType: DataType): Set[TypeTag[_]] = ...
def scalaTypeOpt: Option[TypeTag[_]] = ...
val catalystType = ...
scalaTypeOpt.map(v => Set(v))
.getOrElse{
val default = scalaTypesFor(catalystType)
default
}
在这种情况下,scalaTypesFor 和 scalaTypeOpt 都期望生成带有通配符参数的 TypeTag,它们应该具有相同的类型。但是,编译器给了我以下错误:
Error:(29, 51) inferred type arguments [scala.collection.immutable.Set[_117] forSome { type _$2; type _117 >: org.apache.spark.sql.catalyst.ScalaReflection.universe.TypeTag[_$2] <: org.apache.spark.sql.catalyst.ScalaReflection.universe.TypeTag[_] }] do not conform to method getOrElse's type parameter bounds [B >: scala.collection.immutable.Set[org.apache.spark.sql.catalyst.ScalaReflection.universe.TypeTag[_$2]] forSome { type _$2 }]
val effective = scalaTypeOpt.map(v => Set(v)).getOrElse{
^
类型推断有什么问题以及如何修复它?
最佳答案
我认为问题在于你有两种未知类型_并且不能保证它们兼容。另外,scala 中的不可变集合是不正确的不变性(在人们开始评论之前,已经有很多讨论,最后的结论是,实际上,没有真正根本的原因让它们不协变),因此这往往会产生烦人的结果还有打字问题。
没有编译器可供测试,但您可以尝试一些方法
- (不太可能起作用)将 Set 的类型归因于
Set[TypeTag[_]](v)
更改您的代码,以便允许编译器捕获未知类型并向自己证明它是相同的类型:
def scalaTypesFor[T](dataType: DataType): Set[TypeTag[T]] = ??? def scalaTypeOpt[T]: Option[TypeTag[T]] = ??? def xform[T] = { val catalystType = ??? scalaTypeOpt[T].map(v => Set(v)) .getOrElse{ val default = scalaTypesFor[T](catalystType) default } }
或者如果你可以将它们设为本地定义
def xform[T] = {
def scalaTypesFor(dataType: DataType): Set[TypeTag[T]] = ???
def scalaTypeOpt: Option[TypeTag[T]] = ???
val catalystType = ???
scalaTypeOpt.map(v => Set(v))
.getOrElse{
val default = scalaTypesFor(catalystType)
default
}
}
关于scala - 为什么 scala 无法从 2 个函数推断通配符类型?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38043008/