牛骨文教育服务平台(让学习变的简单)
博客笔记
21
2014-01
java 匿名类(不能被忽略 (new+接口)是定义匿名类的一个形式) 2014-01-21
匿名内部类 ( 明白了匿名类就理解了函数回调,(此处与线程无关))有位老兄说:(匿名一是为了简化代码,而是告诉GC我这个对象只用一次,
31
2016-10
Java读取文件夹大小的6种方法及代码 2016-10-31
学习Java的同学注意了!!! 学习过程中遇到什么问题或者想获取学习资源的话,欢迎加入Java学习交流群,群号码:279558494 我们一起学Java! 这

			
				【解决】处于ACCEPTED状态不runnin…
【解决】处于ACCEPTED状态不runnin… 2017-04-21
Oozie提交pyspark任务后yarn 8088一直处于ACCEPTED状态不运行running 这个问题困扰了我一个周末……一个周末……(然后其实后面又困扰了一周) 而且重
15
2014-07
C#里分割字符串的一个方法 2014-07-15
using UnityEngine; using System.Collections; using System.Collections.Generic; public class StringExtention { public static string[] SplitWithString(string sourceString, string splitString)

			
				Hadoop常见错误及解决办法汇总
Hadoop常见错误及解决办法汇总 2015-01-12
错误一:java.io.IOException: Incompatible clusterIDs 时常出现在namenode重新格式化之后" V0 h# C5 a8 o+ ^1 n* w- t  k( ]$ }+ p6 d  G2014-04-29 14:32:53,877 FATAL org.apache.hado
19
2014-08
c# 分割字符串中的 2014-08-19
这里两种方法 string str = "1 2"; string[] strlist = str.Split(" ".ToCharArray(),StringSplitOptions.RemoveEmptyEntries); string[] temp = str.Split(n
29
2016-07
hive code 143 2016-07-29
Examining task ID: task_1468807885116_444914_r_000469 (and more) from job job_1468807885116_444914 Examining task ID: task_1468807885116_444914_r_000490 (and more) from job job_1468807885116_444914 Task with
22
2016-04
C#中使用split分割字符串的几种方法小结 2016-04-22
http://www.111cn.net/net/160/46392.htm http://blog.sina.com.cn/s/blog_a401a1ea0101f8kx.html 1、用字符串分隔: using System.Text.RegularExpressions; string str="aaajsbbbjsccc"; stri
01
2018-03
hadoop yarn:beyond virtual memory limits 2018-03-01
问题描述:最近使用sqoop导入数据到hdfs上面,出现不成功的情况,错误如下:Container [pid=25705,containerID=container_1519886213201_0001_01_000047] is running beyond vir

			
				Container exited with a non-zero exit code 1 .Failing this attempt.. Failing the application.
Container exited with a non-zero exit code 1 .Failing this attempt.. Failing the application. 2015-11-18
简单的代码实现不进行详细的说明: import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase