带通配符的Scala过滤器?

带通配符的Scala过滤器?,scala,apache-spark,dataframe,apache-spark-sql,Scala,Apache Spark,Dataframe,Apache Spark Sql,我正在尝试使用通配符进行筛选,例如:df.filter($“dst_ip”==“1.1.1.*”)。不知何故,当我执行df.show()时,它返回空白。关于如何在数据帧上执行通配符筛选,是否有其他方法?为什么不使用包含: df.filter($"dst_ip".contains("1.1.1.")) 或者,如果希望字符串位于开头,则可以像在SQL中一样使用like: df.filter($"dst_ip".like("1.1.1.%")) 谢谢一开始我不懂语法。我现在在上面你的帮助下得到了它

我正在尝试使用通配符进行筛选,例如:
df.filter($“dst_ip”==“1.1.1.*”)
。不知何故,当我执行
df.show()
时,它返回空白。关于如何在数据帧上执行通配符筛选,是否有其他方法?

为什么不使用
包含

df.filter($"dst_ip".contains("1.1.1."))
或者,如果希望字符串位于开头,则可以像在SQL中一样使用
like

df.filter($"dst_ip".like("1.1.1.%"))

谢谢一开始我不懂语法。我现在在上面你的帮助下得到了它。