A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 

A

abandonBlock(Block, String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
The client can give up on a blcok by calling abandonBlock().
abandonBlock(Block, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
The client would like to let go of the given block
abandonBlock(Block, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
The client needs to give up on the block.
abort() - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
 
abortJob(JobContext, int) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
Delete the temporary directory, including all of the work directories.
abortJob(JobContext, int) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
For cleaning up the job's output after job failure.
abortJob(JobContext, JobStatus.State) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
This method implements the new interface by calling the old method.
abortJob(JobContext, JobStatus.State) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Delete the temporary directory, including all of the work directories.
abortJob(JobContext, JobStatus.State) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
For aborting an unsuccessful job's output.
abortJob(JobContext, JobStatus.State) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyCommitter
 
abortTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
 
abortTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
Discard the task output
abortTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
This method implements the new interface by calling the old method.
abortTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Delete the work directory
abortTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
Discard the task output
ABSOLUTE - 类 中的静态变量org.apache.hadoop.metrics.spi.MetricValue
已过时。
 
AbstractClusterStory - org.apache.hadoop.tools.rumen中的类
AbstractClusterStory provides a partial implementation of ClusterStory by parsing the topology tree.
AbstractClusterStory() - 类 的构造器org.apache.hadoop.tools.rumen.AbstractClusterStory
 
AbstractDelegationTokenIdentifier - org.apache.hadoop.security.token.delegation中的类
 
AbstractDelegationTokenIdentifier() - 类 的构造器org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
AbstractDelegationTokenIdentifier(Text, Text, Text) - 类 的构造器org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
AbstractDelegationTokenSecretManager<TokenIdent extends AbstractDelegationTokenIdentifier> - org.apache.hadoop.security.token.delegation中的类
 
AbstractDelegationTokenSecretManager(long, long, long, long) - 类 的构造器org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
 
AbstractDelegationTokenSecretManager.DelegationTokenInformation - org.apache.hadoop.security.token.delegation中的类
Class to encapsulate a token's renew date and password.
AbstractDelegationTokenSecretManager.DelegationTokenInformation(long, byte[]) - 类 的构造器org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager.DelegationTokenInformation
 
AbstractDelegationTokenSelector<TokenIdent extends AbstractDelegationTokenIdentifier> - org.apache.hadoop.security.token.delegation中的类
Look through tokens to find the first delegation token that matches the service and return it.
AbstractDelegationTokenSelector(Text) - 类 的构造器org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSelector
 
AbstractGangliaSink - org.apache.hadoop.metrics2.sink.ganglia中的类
This the base class for Ganglia sink classes using metrics2.
AbstractGangliaSink() - 类 的构造器org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
AbstractGangliaSink.GangliaConfType - org.apache.hadoop.metrics2.sink.ganglia中的枚举
define enum for various type of conf
AbstractGangliaSink.GangliaSlope - org.apache.hadoop.metrics2.sink.ganglia中的枚举
ganglia slope values which equal the ordinal
AbstractMapWritable - org.apache.hadoop.io中的类
Abstract base class for MapWritable and SortedMapWritable Unlike org.apache.nutch.crawl.MapWritable, this class allows creation of MapWritable<Writable, MapWritable> so the CLASS_TO_ID and ID_TO_CLASS maps travel with the class instead of being static.
AbstractMapWritable() - 类 的构造器org.apache.hadoop.io.AbstractMapWritable
constructor.
AbstractMetricsContext - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
AbstractMetricsContext() - 类 的构造器org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Creates a new instance of AbstractMetricsContext
AbstractMetricsContext.MetricMap - org.apache.hadoop.metrics.spi中的类
已过时。
 
AbstractMetricsContext.TagMap - org.apache.hadoop.metrics.spi中的类
已过时。
 
AbstractMetricsSource - org.apache.hadoop.metrics2.lib中的类
A convenient base class for writing metrics sources
AbstractMetricsSource(String, MetricMutableFactory) - 类 的构造器org.apache.hadoop.metrics2.lib.AbstractMetricsSource
Construct the source with name and a mutable metrics factory
AbstractMetricsSource(String) - 类 的构造器org.apache.hadoop.metrics2.lib.AbstractMetricsSource
Construct the source with a name with a default factory
accept(Path) - 接口 中的方法org.apache.hadoop.fs.PathFilter
Tests whether or not the specified abstract pathname should be included in a pathname list.
accept(Class<?>) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerialization
 
accept(Class<?>) - 接口 中的方法org.apache.hadoop.io.serializer.Serialization
Allows clients to test whether this Serialization supports the given class.
accept(Class<?>) - 类 中的方法org.apache.hadoop.io.serializer.WritableSerialization
 
accept(CompositeRecordReader.JoinCollector, K) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
While key-value pairs from this RecordReader match the given key, register them with the JoinCollector provided.
accept(CompositeRecordReader.JoinCollector, K) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
If key provided matches that of this Composite, give JoinCollector iterator over values it may emit.
accept(CompositeRecordReader.JoinCollector, K) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Add an iterator to the collector at the position occupied by this RecordReader over the values in this stream paired with the key provided (ie register a stream of values from this source matching K with a collector).
accept(Path) - 类 中的方法org.apache.hadoop.mapred.OutputLogFilter
已过时。
 
accept(Object) - 接口 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.Filter
filter function Decide if a record should be filtered or not
accept(Object) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
Filtering method If MD5(key) % frequency==0, return true; otherwise return false
accept(Object) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
Filtering method If record# % frequency==0, return true; otherwise return false
accept(Object) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
Filtering method If key matches the regex, return true; otherwise return false
accept(Path) - 类 中的方法org.apache.hadoop.mapred.Utils.OutputFileUtils.OutputFilesFilter
 
accept(Path) - 类 中的方法org.apache.hadoop.mapred.Utils.OutputFileUtils.OutputLogFilter
 
accept(Object) - 接口 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.Filter
filter function Decide if a record should be filtered or not
accept(Object) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
Filtering method If MD5(key) % frequency==0, return true; otherwise return false
accept(Object) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
Filtering method If record# % frequency==0, return true; otherwise return false
accept(Object) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
Filtering method If key matches the regex, return true; otherwise return false
accepts(String) - 类 中的方法org.apache.hadoop.metrics2.MetricsFilter
Whether to accept the name
accepts(MetricsTag) - 类 中的方法org.apache.hadoop.metrics2.MetricsFilter
Whether to accept the tag
accepts(Iterable<MetricsTag>) - 类 中的方法org.apache.hadoop.metrics2.MetricsFilter
Whether to accept the tags
accepts(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics2.MetricsFilter
Whether to accept the record
AccessControlException - org.apache.hadoop.fs.permission中的异常错误
已过时。
AccessControlException() - 异常错误 的构造器org.apache.hadoop.fs.permission.AccessControlException
已过时。
Default constructor is needed for unwrapping from RemoteException.
AccessControlException(String) - 异常错误 的构造器org.apache.hadoop.fs.permission.AccessControlException
已过时。
Constructs an AccessControlException with the specified detail message.
AccessControlException(Throwable) - 异常错误 的构造器org.apache.hadoop.fs.permission.AccessControlException
已过时。
Constructs a new exception with the specified cause and a detail message of (cause==null ?
AccessControlException - org.apache.hadoop.security中的异常错误
An exception class for access control related issues.
AccessControlException() - 异常错误 的构造器org.apache.hadoop.security.AccessControlException
Default constructor is needed for unwrapping from RemoteException.
AccessControlException(String) - 异常错误 的构造器org.apache.hadoop.security.AccessControlException
Constructs an AccessControlException with the specified detail message.
AccessControlException(Throwable) - 异常错误 的构造器org.apache.hadoop.security.AccessControlException
Constructs a new exception with the specified cause and a detail message of (cause==null ?
AccessControlList - org.apache.hadoop.security.authorize中的类
Class representing a configured access control list.
AccessControlList() - 类 的构造器org.apache.hadoop.security.authorize.AccessControlList
This constructor exists primarily for AccessControlList to be Writable.
AccessControlList(String) - 类 的构造器org.apache.hadoop.security.authorize.AccessControlList
Construct a new ACL from a String representation of the same.
AccessTimeParam - org.apache.hadoop.hdfs.web.resources中的类
Access time parameter.
AccessTimeParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.AccessTimeParam
Constructor.
AccessTimeParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.AccessTimeParam
Constructor.
activateOptions() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
 
activeTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get the active task tracker statuses in the cluster
add(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
add(Object) - 接口 中的方法org.apache.hadoop.contrib.utils.join.ResetableIterator
 
add(X) - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
add(InputSplit) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
Add an InputSplit to this collection.
add(ComposableRecordReader<K, ? extends V>) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Add a RecordReader to this collection.
add(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
add(V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
add(T) - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
Add an element to the collection of elements to iterate over.
add(U) - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
add(X) - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
 
add(String, MetricsBase) - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
已过时。
Add a new metrics to the registry
add(long, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
Add a number of samples and their sum to the running stat
add(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
Add a snapshot to the metric
add(String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Add a value to a metric by name.
add(String, long, MetricMutableFactory) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Decrement a metric by name.
add(MetricsTag) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add an immutable metrics tag object
add(Metric) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add a pre-made immutable metric object
add(double) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
Add a sample the running stat.
add(long, double) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
Add some sample and a partial sum to the running stat.
add(double) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
 
add(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Add a leaf node Update node counter & rack counter if neccessary
add(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
Add a leaf node Update node counter & rack counter if necessary
add(String, List<String>) - 类 中的方法org.apache.hadoop.security.NetgroupCache
 
add(Key) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
add(Key) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
add(Key) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
add(Key) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Adds a key to this filter.
add(List<Key>) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Adds a list of keys to this filter.
add(Collection<Key>) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Adds a collection of keys to this filter.
add(Key[]) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Adds an array of keys to this filter.
add(Key) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
 
add_escapes(String) - 异常错误 中的方法org.apache.hadoop.record.compiler.generated.ParseException
Used to convert raw characters to their escaped version when these raw version cannot be used as part of an ASCII string literal.
addAll(Credentials) - 类 中的方法org.apache.hadoop.security.Credentials
Copy all of the credentials from one credential object into another.
addArchiveToClassPath(Path, Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
已过时。
Please use DistributedCache.addArchiveToClassPath(Path, Configuration, FileSystem) instead. The FileSystem should be obtained within an appropriate doAs.
addArchiveToClassPath(Path, Configuration, FileSystem) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Add an archive path to the current set of classpath entries.
addBlock(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
已过时。
use the 3-arg form below
addBlock(String, String, DatanodeInfo[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
A client that wants to write an additional block to the indicated filename (which must currently be open for writing) should call addBlock().
addBlock(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Stub for 0.20 clients that don't support HDFS-630
addBlock(String, String, DatanodeInfo[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
addBlockChecksumOp(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
addBlockReport(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
addBlockReport(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
addCacheArchive(URI, Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Add a archives to be localized to the conf.
addCacheFile(URI, Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Add a file to be localized to the conf.
addCacheInfoUpdate(TrackerDistributedCacheManager.CacheStatus) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.BaseDirManager
Update the maps baseDirSize and baseDirNumberSubDir when adding cache.
addChild(Node) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
 
addChild(Node) - 类 中的方法org.apache.hadoop.tools.rumen.Node
Add a child node to this node.
addChild(Node) - 类 中的方法org.apache.hadoop.tools.rumen.RackNode
 
addClass(String, Class, String) - 类 中的方法org.apache.hadoop.util.ProgramDriver
This is the method that adds the classed to the repository
addColumn(ColumnName, boolean) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Add a column to the table
addColumn(ColumnName) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Add a column to the table
addCommand(List<String>, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Add quotes to each of the command strings and return as a single string
addContext(Context, boolean) - 类 中的方法org.apache.hadoop.http.HttpServer
 
addContext(String, String, boolean) - 类 中的方法org.apache.hadoop.http.HttpServer
Add a context
addCopyBlockOp(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
addCounter(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add an int counter metric
addCounter(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add an long counter metric
addDefaultApps(ContextHandlerCollection, String) - 类 中的方法org.apache.hadoop.http.HttpServer
Add default apps.
addDefaultResource(String) - 类 中的静态方法org.apache.hadoop.conf.Configuration
Add a default resource.
addDefaults() - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
Adds the default set of identifiers to the parser.
addDefaultServlets() - 类 中的方法org.apache.hadoop.http.HttpServer
Add default servlets.
addDependingJob(Job) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Add a job to this jobs' dependency list.
addDependingJob(ControlledJob) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Add a job to this jobs' dependency list.
addDoubleValue(Object, double) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
Increment the given counter by the given incremental value If the counter does not exist, one is created with value 0.
addEscapes(String) - 错误 中的静态方法org.apache.hadoop.record.compiler.generated.TokenMgrError
Replaces unprintable characters by their espaced (or unicode escaped) equivalents in the given string
addFalsePositive(Key) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
Adds a false positive information to this retouched Bloom filter.
addFalsePositive(Collection<Key>) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
Adds a collection of false positive information to this retouched Bloom filter.
addFalsePositive(List<Key>) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
Adds a list of false positive information to this retouched Bloom filter.
addFalsePositive(Key[]) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
Adds an array of false positive information to this retouched Bloom filter.
addField(String, TypeID) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
Add a field.
addFileset(FileSet) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
Adds a fileset that can consist of one or more files
addFileSystemForTesting(URI, Configuration, FileSystem) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
This method adds a file system for testing so that we can find it later.
addFileToClassPath(Path, Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
已过时。
Please use DistributedCache.addFileToClassPath(Path, Configuration, FileSystem) instead. The FileSystem should be obtained within an appropriate doAs.
addFileToClassPath(Path, Configuration, FileSystem) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Add a file path to the current set of classpath entries.
addFilter(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.http.FilterContainer
Add a filter to the container.
addFilter(String, String, Map<String, String>) - 类 中的方法org.apache.hadoop.http.HttpServer
Add a filter to the container.
addFilterPathMapping(String, Context) - 类 中的方法org.apache.hadoop.http.HttpServer
Add the path spec to the filter path mapping.
addGauge(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add a int gauge metric
addGauge(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add a long gauge metric
addGauge(String, String, float) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add a float gauge metric
addGauge(String, String, double) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add a double gauge metric
addGlobalFilter(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.http.FilterContainer
Add a global filter to the container.
addGlobalFilter(String, String, Map<String, String>) - 类 中的方法org.apache.hadoop.http.HttpServer
Add a global filter to the container.
addHeartBeat(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
addIdentifier(String, Class<?>[], Class<? extends Parser.Node>, Class<? extends ComposableRecordReader>) - 类 中的静态方法org.apache.hadoop.mapred.join.Parser.Node
For a given identifier, add a mapping to the nodetype for the parse tree and to the ComposableRecordReader to be created, including the formals required to invoke the constructor.
addInputPath(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
Add a Path to the list of inputs for the map-reduce job.
addInputPath(JobConf, Path, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleInputs
Add a Path with a custom InputFormat to the list of inputs for the map-reduce job.
addInputPath(JobConf, Path, Class<? extends InputFormat>, Class<? extends Mapper>) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleInputs
Add a Path with a custom InputFormat and Mapper to the list of inputs for the map-reduce job.
addInputPath(Job, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Add a Path to the list of inputs for the map-reduce job.
addInputPath(Job, Path, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.MultipleInputs
Add a Path with a custom InputFormat to the list of inputs for the map-reduce job.
addInputPath(Job, Path, Class<? extends InputFormat>, Class<? extends Mapper>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.MultipleInputs
Add a Path with a custom InputFormat and Mapper to the list of inputs for the map-reduce job.
addInputPaths(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
Add the given comma separated paths to the list of inputs for the map-reduce job.
addInputPaths(Job, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Add the given comma separated paths to the list of inputs for the map-reduce job.
addInternalServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.http.HttpServer
已过时。
this is a temporary method
addInternalServlet(String, String, Class<? extends HttpServlet>, boolean, boolean) - 类 中的方法org.apache.hadoop.http.HttpServer
Add an internal servlet in the server, specifying whether or not to protect with Kerberos authentication.
additionalConfSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
addJerseyResourcePackage(String, String) - 类 中的方法org.apache.hadoop.http.HttpServer
Add a Jersey resource package.
addJob(Job) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
Add a new job.
addJob(ControlledJob) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
Add a new job.
addJobCollection(Collection<ControlledJob>) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
Add a collection of jobs
addJobInProgressListener(JobInProgressListener) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
addJobs(Collection<Job>) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
Add a collection of jobs
addKey(DelegationKey) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Add a previously used master key to cache (when NN restarts), should be called before activate().
addLocalArchives(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Add a archive that has been localized to the conf.
addLocalFiles(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Add a file that has been localized to the conf..
addLogEvent(UserLogEvent) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
Add the UserLogEvent for processing.
addLongValue(Object, long) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
Increment the given counter by the given incremental value If the counter does not exist, one is created with value 0.
addMapper(JobConf, Class<? extends Mapper<K1, V1, K2, V2>>, Class<? extends K1>, Class<? extends V1>, Class<? extends K2>, Class<? extends V2>, boolean, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.ChainMapper
Adds a Mapper class to the chain job's JobConf.
addMapper(JobConf, Class<? extends Mapper<K1, V1, K2, V2>>, Class<? extends K1>, Class<? extends V1>, Class<? extends K2>, Class<? extends V2>, boolean, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.ChainReducer
Adds a Mapper class to the chain job's JobConf.
addMultiNamedOutput(JobConf, String, Class<? extends OutputFormat>, Class<?>, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Adds a multi named output for the job.
addName(Class, String) - 类 中的静态方法org.apache.hadoop.io.WritableName
Add an alternate name for a class.
addNamedOutput(JobConf, String, Class<? extends OutputFormat>, Class<?>, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Adds a named output for the job.
addNamedOutput(Job, String, Class<? extends OutputFormat>, Class<?>, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Adds a named output for the job.
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
add a value to the aggregator
addNextValue(double) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
add a value to the aggregator
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
add a value to the aggregator
addNextValue(long) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
add a value to the aggregator
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
add a value to the aggregator
addNextValue(long) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
add a value to the aggregator
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
add a value to the aggregator
addNextValue(long) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
add a value to the aggregator
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
add a value to the aggregator
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
add a value to the aggregator
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
add a value to the aggregator
addNextValue(Object) - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
add a value to the aggregator
addNextValue(Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
add the given val to the aggregator.
addOldUserLogsForDeletion(File, Configuration) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
Adds the job log directories for deletion with default retain hours.
addPersistedDelegationToken(DelegationTokenIdentifier, long) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
This method is intended to be used only while reading edit logs.
addPhase(String) - 类 中的方法org.apache.hadoop.util.Progress
Adds a named node to the tree.
addPhase() - 类 中的方法org.apache.hadoop.util.Progress
Adds a node to the tree.
addReadBlockOp(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
addRecord(String) - 接口 中的方法org.apache.hadoop.metrics2.MetricsBuilder
Add a metrics record
addRenewAction(T) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
Add a renew action to the queue.
addReplaceBlockOp(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
addResource(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Add a configuration resource.
addResource(URL) - 类 中的方法org.apache.hadoop.conf.Configuration
Add a configuration resource.
addResource(Path) - 类 中的方法org.apache.hadoop.conf.Configuration
Add a configuration resource.
addResource(InputStream) - 类 中的方法org.apache.hadoop.conf.Configuration
Add a configuration resource.
addRow(boolean[]) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Add a row to the table.
addRpcProcessingTime(int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Add an RPC processing time sample
addRpcProcessingTime(String, int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Add an RPC processing time sample for a particular RPC method
addRpcProcessingTime(String, int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation.Detailed
 
addRpcQueueTime(int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Add an RPC queue time sample
addSecretKey(Text, byte[]) - 类 中的方法org.apache.hadoop.security.Credentials
Set the key for an alias
addServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.http.HttpServer
Add a servlet in the server.
addSslListener(InetSocketAddress, String, String, String) - 类 中的方法org.apache.hadoop.http.HttpServer
addSslListener(InetSocketAddress, Configuration, boolean) - 类 中的方法org.apache.hadoop.http.HttpServer
Configure an ssl listener on the server.
addSslListener(InetSocketAddress, Configuration, boolean, boolean) - 类 中的方法org.apache.hadoop.http.HttpServer
Configure an ssl listener on the server.
addStaticResolution(String, String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Adds a static resolution for host.
addStorageDir(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
 
addSync(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
addTableFooter(JspWriter) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
addTableHeader(JspWriter) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
addTableRow(JspWriter, String[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
addTableRow(JspWriter, String[], int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
addTaskEnvironment_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
addTerseExceptions(Class<?>...) - 类 中的方法org.apache.hadoop.ipc.Server
 
addToConf(Configuration, DistCpOptionSwitch, String) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
Helper function to add an option to hadoop configuration object
addToConf(Configuration, DistCpOptionSwitch) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
Helper function to set an option to hadoop configuration object
addToCorruptReplicasMap(Block, DatanodeDescriptor) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
Mark the block belonging to datanode as corrupt.
addToExcludedNodes(DatanodeDescriptor, HashMap<Node, Node>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
Add localMachine and related nodes to excludedNodes for next replica choosing.
addToExcludedNodes(DatanodeDescriptor, HashMap<Node, Node>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
Find other nodes in the same nodegroup of localMachine and add them into excludeNodes as replica should not be duplicated for nodes within the same nodegroup
addToken(Text, Token<? extends TokenIdentifier>) - 类 中的方法org.apache.hadoop.security.Credentials
Add a token in the storage (in memory)
addToken(Token<? extends TokenIdentifier>) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Add a token to this UGI
addTokenForJob(String, Token<JobTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Add the job token of a job to cache
addTokenIdentifier(TokenIdentifier) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Add a TokenIdentifier to this UGI.
addToMap(Class) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
Add a Class to the maps if it is not already present.
addToQueue(CleanupQueue.PathDeletionContext...) - 类 中的方法org.apache.hadoop.mapred.CleanupQueue
Adds the paths to the queue of paths to be deleted by cleanupThread.
addTransaction(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
addUser(String) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
 
addWriteBlockOp(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
adjustBeginLineColumn(int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
Method to adjust line and column numbers for the start of a token.
adjustExcludedNodes(HashMap<Node, Node>, Node) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
After choosing a node to place replica, adjust excluded nodes accordingly.
adjustExcludedNodes(HashMap<Node, Node>, Node) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
 
adjustSetsWithChosenReplica(Map<String, List<DatanodeDescriptor>>, List<DatanodeDescriptor>, List<DatanodeDescriptor>, DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
Adjust rackmap, moreThanOne, and exactlyOne after removing replica on cur.
adjustTop() - 类 中的方法org.apache.hadoop.util.PriorityQueue
Should be called when the Object at top changes values.
AdminAuthorizedServlet - org.apache.hadoop.http中的类
General servlet which is admin-authorized.
AdminAuthorizedServlet() - 类 的构造器org.apache.hadoop.http.AdminAuthorizedServlet
 
AdminOperationsProtocol - org.apache.hadoop.mapred中的接口
Protocol for admin operations.
adminState - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
advance() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Move the cursor to the next key-value pair.
AggregateWordCount - org.apache.hadoop.examples中的类
This is an example Aggregated Hadoop Map/Reduce application.
AggregateWordCount() - 类 的构造器org.apache.hadoop.examples.AggregateWordCount
 
AggregateWordCount.WordCountPlugInClass - org.apache.hadoop.examples中的类
 
AggregateWordCount.WordCountPlugInClass() - 类 的构造器org.apache.hadoop.examples.AggregateWordCount.WordCountPlugInClass
 
AggregateWordHistogram - org.apache.hadoop.examples中的类
This is an example Aggregated Hadoop Map/Reduce application.
AggregateWordHistogram() - 类 的构造器org.apache.hadoop.examples.AggregateWordHistogram
 
AggregateWordHistogram.AggregateWordHistogramPlugin - org.apache.hadoop.examples中的类
 
AggregateWordHistogram.AggregateWordHistogramPlugin() - 类 的构造器org.apache.hadoop.examples.AggregateWordHistogram.AggregateWordHistogramPlugin
 
aggregatorDescriptorList - 类 中的变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
 
allFinished() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
 
allFinished() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
 
allKeys - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Access to allKeys is protected by this object lock
allocator - 类 中的变量org.apache.hadoop.mapred.TaskController
 
ALREADY_RUNNING - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
 
AlreadyBeingCreatedException - org.apache.hadoop.hdfs.protocol中的异常错误
The exception that happens when you ask to create a file that already is being created, but is not closed yet.
AlreadyBeingCreatedException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException
 
analyzeStorage(HdfsConstants.StartupOption) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Check consistency of the storage directory
and(FsAction) - 枚举 中的方法org.apache.hadoop.fs.permission.FsAction
AND operation.
and(Filter) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
and(Filter) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
and(Filter) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
and(Filter) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Peforms a logical AND between this filter and a specified filter.
ANONYMOUS - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationToken
Constant that identifies an anonymous request.
ANONYMOUS_ALLOWED - 类 中的静态变量org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
Constant for the configuration property that indicates if anonymous users are allowed.
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Append to an existing file (optional operation).
append(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Append to an existing file (optional operation).
append(Path, int) - 类 中的方法org.apache.hadoop.fs.FileSystem
Append to an existing file (optional operation).
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
Append to an existing file (optional operation).
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Append to an existing file (optional operation).
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
This optional operation is not yet supported.
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
This optional operation is not yet supported.
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Append to an existing file (optional operation).
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
This optional operation is not yet supported.
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
This optional operation is not yet supported.
append(String, int, Progressable, FileSystem.Statistics) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Append to an existing HDFS file.
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
This optional operation is not yet supported.
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
This optional operation is not yet supported.
append(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Append to the end of the file.
append(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Append to the end of the file.
append(Path, int, Progressable) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
append(Writable) - 类 中的方法org.apache.hadoop.io.ArrayFile.Writer
Append a value to the file.
append(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.BloomMapFile.Writer
 
append(byte[], byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
Adding a new key-value pair to the TFile.
append(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
Adding a new key-value pair to TFile.
append(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Writer
Append a key/value pair to the map.
append(Writable, Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
Append a key/value pair.
append(Object, Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
Append a key/value pair.
append(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Writer
Append a key to a set.
append(byte[], int, int) - 类 中的方法org.apache.hadoop.io.Text
Append a range of bytes to the end of the given text
append(LoggingEvent) - 类 中的方法org.apache.hadoop.log.metrics.EventCounter
 
append(LoggingEvent) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
 
append(byte[], int, int) - 类 中的方法org.apache.hadoop.record.Buffer
Append specified bytes to the buffer.
append(byte[]) - 类 中的方法org.apache.hadoop.record.Buffer
Append specified bytes to the buffer
appendRaw(byte[], int, int, SequenceFile.ValueBytes) - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
 
appendTo(StringBuilder) - 类 中的方法org.apache.hadoop.mapreduce.JobID
Add the stuff after the "job" prefix to the given builder.
appendTo(StringBuilder) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
Add the unique string to the StringBuilder
appendTo(StringBuilder) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
Add the unique string to the given builder.
appendToConf(Configuration) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Add options to configuration.
applyNewPermission(FileStatus) - 类 中的方法org.apache.hadoop.fs.permission.ChmodParser
Apply permission against specified file and determine what the new mode would be
applyUMask(FsPermission) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
Apply a umask to this permission and return a new one
applyUMask(FsPermission) - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
Apply umask.
approximateCount(Key) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
This method calculates an approximate count of the key, i.e. how many times the key was added to the filter.
archiveURIs - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
args - 类 中的变量org.apache.hadoop.fs.shell.Command
 
argv_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
ArrayFile - org.apache.hadoop.io中的类
A dense file-based mapping from integers to values.
ArrayFile() - 类 的构造器org.apache.hadoop.io.ArrayFile
 
ArrayFile.Reader - org.apache.hadoop.io中的类
Provide access to an existing array file.
ArrayFile.Reader(FileSystem, String, Configuration) - 类 的构造器org.apache.hadoop.io.ArrayFile.Reader
Construct an array reader for the named file.
ArrayFile.Writer - org.apache.hadoop.io中的类
Write a new array file.
ArrayFile.Writer(Configuration, FileSystem, String, Class<? extends Writable>) - 类 的构造器org.apache.hadoop.io.ArrayFile.Writer
Create the named file for values of the named class.
ArrayFile.Writer(Configuration, FileSystem, String, Class<? extends Writable>, SequenceFile.CompressionType, Progressable) - 类 的构造器org.apache.hadoop.io.ArrayFile.Writer
Create the named file for values of the named class.
ArrayListBackedIterator - org.apache.hadoop.contrib.utils.join中的类
This class provides an implementation of ResetableIterator.
ArrayListBackedIterator() - 类 的构造器org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
ArrayListBackedIterator(ArrayList<Object>) - 类 的构造器org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
ArrayListBackedIterator<X extends Writable> - org.apache.hadoop.mapred.join中的类
This class provides an implementation of ResetableIterator.
ArrayListBackedIterator() - 类 的构造器org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
ArrayListBackedIterator(ArrayList<X>) - 类 的构造器org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
arrayToString(String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Given an array of strings, return a comma-separated list of its elements.
ArrayWritable - org.apache.hadoop.io中的类
A Writable for arrays containing instances of a class.
ArrayWritable(Class<? extends Writable>) - 类 的构造器org.apache.hadoop.io.ArrayWritable
 
ArrayWritable(Class<? extends Writable>, Writable[]) - 类 的构造器org.apache.hadoop.io.ArrayWritable
 
ArrayWritable(String[]) - 类 的构造器org.apache.hadoop.io.ArrayWritable
 
ask(String, String, String...) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
Display a prompt to the user and get his or her choice.
atEnd() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Is cursor at the end location?
AtomicFileOutputStream - org.apache.hadoop.hdfs.util中的类
A FileOutputStream that has the property that it will only show up at its destination once it has been entirely written and flushed to disk.
AtomicFileOutputStream(File) - 类 的构造器org.apache.hadoop.hdfs.util.AtomicFileOutputStream
 
ATTEMPT - 类 中的静态变量org.apache.hadoop.mapreduce.TaskAttemptID
 
attemptingUser - 类 中的变量org.apache.hadoop.ipc.Server.Connection
 
AUDIT_FORMAT - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
auditLog - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
AUTH_COOKIE - 类 中的静态变量org.apache.hadoop.security.authentication.client.AuthenticatedURL
Name of the HTTP cookie used for the authentication token between the client and the server.
AUTH_TOKEN_VALIDITY - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
Constant for the configuration property that indicates the validity of the generated token.
AUTH_TYPE - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
Constant for the property that specifies the authentication handler to use.
authenticate(URL, AuthenticatedURL.Token) - 接口 中的方法org.apache.hadoop.security.authentication.client.Authenticator
Authenticates against a URL and returns a AuthenticatedURL.Token to be used by subsequent requests.
authenticate(URL, AuthenticatedURL.Token) - 类 中的方法org.apache.hadoop.security.authentication.client.KerberosAuthenticator
Performs SPNEGO authentication against the specified URL.
authenticate(URL, AuthenticatedURL.Token) - 类 中的方法org.apache.hadoop.security.authentication.client.PseudoAuthenticator
Performs simple authentication against the specified URL.
authenticate(HttpServletRequest, HttpServletResponse) - 接口 中的方法org.apache.hadoop.security.authentication.server.AuthenticationHandler
Performs an authentication step for the given HTTP client request.
authenticate(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
It enforces the the Kerberos SPNEGO authentication sequence returning an AuthenticationToken only after the Kerberos SPNEGO sequence has completed successfully.
authenticate(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
Authenticates an HTTP client request.
AuthenticatedURL - org.apache.hadoop.security.authentication.client中的类
The AuthenticatedURL class enables the use of the JDK URL class against HTTP endpoints protected with the AuthenticationFilter.
AuthenticatedURL() - 类 的构造器org.apache.hadoop.security.authentication.client.AuthenticatedURL
Creates an AuthenticatedURL.
AuthenticatedURL(Authenticator) - 类 的构造器org.apache.hadoop.security.authentication.client.AuthenticatedURL
Creates an AuthenticatedURL.
AuthenticatedURL.Token - org.apache.hadoop.security.authentication.client中的类
Client side authentication token.
AuthenticatedURL.Token() - 类 的构造器org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
Creates a token.
AuthenticatedURL.Token(String) - 类 的构造器org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
Creates a token using an existing string representation of the token.
AuthenticationException - org.apache.hadoop.security.authentication.client中的异常错误
Exception thrown when an authentication error occurrs.
AuthenticationException(Throwable) - 异常错误 的构造器org.apache.hadoop.security.authentication.client.AuthenticationException
AuthenticationException(String) - 异常错误 的构造器org.apache.hadoop.security.authentication.client.AuthenticationException
AuthenticationException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.security.authentication.client.AuthenticationException
AuthenticationFilter - org.apache.hadoop.security.authentication.server中的类
The AuthenticationFilter enables protecting web application resources with different (pluggable) authentication mechanisms.
AuthenticationFilter() - 类 的构造器org.apache.hadoop.security.authentication.server.AuthenticationFilter
 
AuthenticationFilterInitializer - org.apache.hadoop.security中的类
Initializes Alfredo AuthenticationFilter which provides support for Kerberos HTTP SPNEGO authentication.
AuthenticationFilterInitializer() - 类 的构造器org.apache.hadoop.security.AuthenticationFilterInitializer
 
AuthenticationHandler - org.apache.hadoop.security.authentication.server中的接口
Interface for server authentication mechanisms.
authenticationMethod - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.AuthMethod
 
AuthenticationToken - org.apache.hadoop.security.authentication.server中的类
The AuthenticationToken contains information about an authenticated HTTP client and doubles as the Principal to be returned by authenticated HttpServletRequests

The token can be serialized/deserialized to and from a string as it is sent and received in HTTP client responses and requests as a HTTP cookie (this is done by the AuthenticationFilter).

AuthenticationToken(String, String, String) - 类 的构造器org.apache.hadoop.security.authentication.server.AuthenticationToken
Creates an authentication token.
Authenticator - org.apache.hadoop.security.authentication.client中的接口
Interface for client authentication mechanisms.
AuthFilter - org.apache.hadoop.hdfs.web中的类
Subclass of AuthenticationFilter that obtains Hadoop-Auth configuration for webhdfs.
AuthFilter() - 类 的构造器org.apache.hadoop.hdfs.web.AuthFilter
 
AUTHORIZATION - 类 中的静态变量org.apache.hadoop.security.authentication.client.KerberosAuthenticator
HTTP header used by the SPNEGO client endpoint during an authentication sequence.
AuthorizationException - org.apache.hadoop.security.authorize中的异常错误
An exception class for authorization-related issues.
AuthorizationException() - 异常错误 的构造器org.apache.hadoop.security.authorize.AuthorizationException
 
AuthorizationException(String) - 异常错误 的构造器org.apache.hadoop.security.authorize.AuthorizationException
 
AuthorizationException(Throwable) - 异常错误 的构造器org.apache.hadoop.security.authorize.AuthorizationException
Constructs a new exception with the specified cause and a detail message of (cause==null ?
authorize(UserGroupInformation, ConnectionHeader, InetAddress) - 类 中的方法org.apache.hadoop.ipc.Server
Authorize the incoming client connection.
authorize(UserGroupInformation, String, Configuration) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
Authorize the superuser which is doing doAs
authorize(UserGroupInformation, Class<?>, Configuration, InetAddress) - 类 中的静态方法org.apache.hadoop.security.authorize.ServiceAuthorizationManager
Authorize the user to access the protocol being used.
AutoInputFormat - org.apache.hadoop.streaming中的类
An InputFormat that tries to deduce the types of the input files automatically.
AutoInputFormat() - 类 的构造器org.apache.hadoop.streaming.AutoInputFormat
 
available() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
 
available() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
 
available() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
available() - 类 中的方法org.apache.hadoop.security.SaslInputStream
Returns the number of bytes that can be read from this input stream without blocking.

B

backup(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
Balancer - org.apache.hadoop.hdfs.server.balancer中的类
The balancer is a tool that balances disk space usage on an HDFS cluster when some datanodes become full or when new empty nodes join the cluster.
BalancerBandwidthCommand - org.apache.hadoop.hdfs.server.protocol中的类
Balancer bandwidth command instructs each datanode to change its value for the max amount of network bandwidth it may use during the block balancing operation.
BalancerBandwidthCommand(long) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
Balancer Bandwidth Command constructor.
BASE_OUTPUT_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
 
baseBlockSize - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
baseDirManager - 类 中的变量org.apache.hadoop.filecache.TrackerDistributedCacheManager
 
baseOut - 类 中的变量org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
 
BBC_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
 
beginColumn - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
beginLine and beginColumn describe the position of the first character of this token; endLine and endColumn describe the position of the last character of this token.
beginLine - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
beginLine and beginColumn describe the position of the first character of this token; endLine and endColumn describe the position of the last character of this token.
BeginToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
bestNode(LocatedBlock) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
BigDecimalSplitter - org.apache.hadoop.mapreduce.lib.db中的类
Implement DBSplitter over BigDecimal values.
BigDecimalSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.BigDecimalSplitter
 
BinaryComparable - org.apache.hadoop.io中的类
Interface supported by WritableComparable types supporting ordering/permutation by a representative set of bytes.
BinaryComparable() - 类 的构造器org.apache.hadoop.io.BinaryComparable
 
BinaryPartitioner<V> - org.apache.hadoop.mapred.lib中的类
Partition BinaryComparable keys using a configurable part of the bytes array returned by BinaryComparable.getBytes().
BinaryPartitioner() - 类 的构造器org.apache.hadoop.mapred.lib.BinaryPartitioner
 
BinaryPartitioner<V> - org.apache.hadoop.mapreduce.lib.partition中的类
Partition BinaryComparable keys using a configurable part of the bytes array returned by BinaryComparable.getBytes().
BinaryPartitioner() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
 
BinaryRecordInput - org.apache.hadoop.record中的类
 
BinaryRecordInput(InputStream) - 类 的构造器org.apache.hadoop.record.BinaryRecordInput
Creates a new instance of BinaryRecordInput
BinaryRecordInput(DataInput) - 类 的构造器org.apache.hadoop.record.BinaryRecordInput
Creates a new instance of BinaryRecordInput
BinaryRecordOutput - org.apache.hadoop.record中的类
 
BinaryRecordOutput(OutputStream) - 类 的构造器org.apache.hadoop.record.BinaryRecordOutput
Creates a new instance of BinaryRecordOutput
BinaryRecordOutput(DataOutput) - 类 的构造器org.apache.hadoop.record.BinaryRecordOutput
Creates a new instance of BinaryRecordOutput
bind(ServerSocket, InetSocketAddress, int) - 类 中的静态方法org.apache.hadoop.ipc.Server
A convenience method to bind to a given address and report better exceptions if the address is not a valid host.
bindTo(Path, Configuration) - 类 中的方法org.apache.hadoop.tools.rumen.DefaultInputDemuxer
 
bindTo(Path, Configuration) - 接口 中的方法org.apache.hadoop.tools.rumen.InputDemuxer
Bind the InputDemuxer to a particular file.
blacklistedTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get the statuses of the blacklisted task trackers in the cluster.
Block - org.apache.hadoop.fs.s3中的类
Holds metadata about a block of data being stored in a FileSystemStore.
Block(long, long) - 类 的构造器org.apache.hadoop.fs.s3.Block
 
Block - org.apache.hadoop.hdfs.protocol中的类
A Block is a Hadoop FS primitive, identified by a long.
Block() - 类 的构造器org.apache.hadoop.hdfs.protocol.Block
 
Block(long, long, long) - 类 的构造器org.apache.hadoop.hdfs.protocol.Block
 
Block(long) - 类 的构造器org.apache.hadoop.hdfs.protocol.Block
 
Block(Block) - 类 的构造器org.apache.hadoop.hdfs.protocol.Block
 
Block(File, long, long) - 类 的构造器org.apache.hadoop.hdfs.protocol.Block
Find the blockid from the given filename
block - 类 中的变量org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor.BlockTargetPair
 
BLOCK_DELIMITER - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
 
BlockCommand - org.apache.hadoop.hdfs.server.protocol中的类
A BlockCommand is an instruction to a datanode regarding some blocks under its control.
BlockCommand() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlockCommand
 
BlockCommand(int, List<DatanodeDescriptor.BlockTargetPair>) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlockCommand
Create BlockCommand for transferring blocks to another datanode
BlockCommand(int, Block[]) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlockCommand
Create BlockCommand for the given action
BlockCompressorStream - org.apache.hadoop.io.compress中的类
A CompressorStream which works with 'block-based' based compression algorithms, as opposed to 'stream-based' compression algorithms.
BlockCompressorStream(OutputStream, Compressor, int, int) - 类 的构造器org.apache.hadoop.io.compress.BlockCompressorStream
BlockCompressorStream(OutputStream, Compressor) - 类 的构造器org.apache.hadoop.io.compress.BlockCompressorStream
Create a BlockCompressorStream with given output-stream and compressor.
BlockDecompressorStream - org.apache.hadoop.io.compress中的类
A DecompressorStream which works with 'block-based' based compression algorithms, as opposed to 'stream-based' compression algorithms.
BlockDecompressorStream(InputStream, Decompressor, int) - 类 的构造器org.apache.hadoop.io.compress.BlockDecompressorStream
BlockDecompressorStream(InputStream, Decompressor) - 类 的构造器org.apache.hadoop.io.compress.BlockDecompressorStream
BlockDecompressorStream(InputStream) - 类 的构造器org.apache.hadoop.io.compress.BlockDecompressorStream
 
blockExists(long) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
BlockKey - org.apache.hadoop.hdfs.security.token.block中的类
Key used for generating and verifying block tokens
BlockKey() - 类 的构造器org.apache.hadoop.hdfs.security.token.block.BlockKey
 
BlockKey(int, long, SecretKey) - 类 的构造器org.apache.hadoop.hdfs.security.token.block.BlockKey
 
BlockListAsLongs - org.apache.hadoop.hdfs.protocol中的类
This class provides an interface for accessing list of blocks that has been implemented as long[].
BlockListAsLongs(long[]) - 类 的构造器org.apache.hadoop.hdfs.protocol.BlockListAsLongs
Constructor
BlockLocalPathInfo - org.apache.hadoop.hdfs.protocol中的类
A block and the full path information to the block data file and the metadata file stored on the local file system.
BlockLocalPathInfo() - 类 的构造器org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
 
BlockLocalPathInfo(Block, String, String) - 类 的构造器org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
Constructs BlockLocalPathInfo.
BlockLocation - org.apache.hadoop.fs中的类
 
BlockLocation() - 类 的构造器org.apache.hadoop.fs.BlockLocation
Default Constructor
BlockLocation(String[], String[], long, long) - 类 的构造器org.apache.hadoop.fs.BlockLocation
Constructor with host, name, offset and length
BlockLocation(String[], String[], String[], long, long) - 类 的构造器org.apache.hadoop.fs.BlockLocation
Constructor with host, name, network topology, offset and length
BlockMetadataHeader - org.apache.hadoop.hdfs.server.datanode中的类
BlockMetadataHeader manages metadata for data blocks on Datanodes.
BlockMetaDataInfo - org.apache.hadoop.hdfs.server.protocol中的类
Meta data information for a block
BlockMetaDataInfo() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
 
BlockMetaDataInfo(Block, long) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
 
BlockPlacementPolicy - org.apache.hadoop.hdfs.server.namenode中的类
This interface is used for choosing the desired number of targets for placing block replicas.
BlockPlacementPolicy() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
 
BlockPlacementPolicy.NotEnoughReplicasException - org.apache.hadoop.hdfs.server.namenode中的异常错误
 
BlockPlacementPolicyDefault - org.apache.hadoop.hdfs.server.namenode中的类
The class is responsible for choosing the desired number of targets for placing block replicas.
BlockPlacementPolicyWithNodeGroup - org.apache.hadoop.hdfs.server.namenode中的类
The class is responsible for choosing the desired number of targets for placing block replicas on environment with node-group layer.
BlockReader - org.apache.hadoop.hdfs中的接口
The API shared between local and remote block readers.
blockReceived(DatanodeID, Block, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
The given node is reporting that it received a certain block.
blockReceived(DatanodeRegistration, Block[], String[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
blockReceived(DatanodeRegistration, Block[], String[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
blockReceived() allows the DataNode to tell the NameNode about recently-received block data, with a hint for pereferred replica to be deleted when there is any excessive blocks.
BlockRecoveryInfo - org.apache.hadoop.hdfs.server.protocol中的类
 
BlockRecoveryInfo() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
 
BlockRecoveryInfo(Block, boolean) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
 
blockReport(DatanodeRegistration, long[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
blockReport(DatanodeRegistration, long[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
blockReport() tells the NameNode about all the locally-stored blocks.
BLOCKREPORT_INITIAL_DELAY - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
BLOCKREPORT_INTERVAL - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
blocksBeingWrittenReport(DatanodeRegistration, long[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
add new replica blocks to the Inode to target mapping also add the Inode file to DataNodeDesc
blocksBeingWrittenReport(DatanodeRegistration, long[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
blocksBeingWrittenReport() tells the NameNode about the blocks-being- written information
blockScanner - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
blockScannerThread - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
BlockSizeParam - org.apache.hadoop.hdfs.web.resources中的类
Block size parameter.
BlockSizeParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.BlockSizeParam
Constructor.
BlockSizeParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.BlockSizeParam
Constructor.
BlocksWithLocations - org.apache.hadoop.hdfs.server.protocol中的类
A class to implement an array of BlockLocations It provide efficient customized serialization/deserialization methods in stead of using the default array (de)serialization provided by RPC
BlocksWithLocations(BlocksWithLocations.BlockWithLocations[]) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
Constructor with one parameter
BlocksWithLocations.BlockWithLocations - org.apache.hadoop.hdfs.server.protocol中的类
A class to keep track of a block and its locations
BlocksWithLocations.BlockWithLocations() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
default constructor
BlocksWithLocations.BlockWithLocations(Block, String[]) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
constructor
BlockTokenIdentifier - org.apache.hadoop.hdfs.security.token.block中的类
 
BlockTokenIdentifier() - 类 的构造器org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
BlockTokenIdentifier(String, long[], EnumSet<BlockTokenSecretManager.AccessMode>) - 类 的构造器org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
BlockTokenIdentifier.Renewer - org.apache.hadoop.hdfs.security.token.block中的类
 
BlockTokenIdentifier.Renewer() - 类 的构造器org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier.Renewer
 
BlockTokenSecretManager - org.apache.hadoop.hdfs.security.token.block中的类
BlockTokenSecretManager can be instantiated in 2 modes, master mode and slave mode.
BlockTokenSecretManager(boolean, long, long) - 类 的构造器org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Constructor
BlockTokenSecretManager.AccessMode - org.apache.hadoop.hdfs.security.token.block中的枚举
 
BlockTokenSelector - org.apache.hadoop.hdfs.security.token.block中的类
A block token selector for HDFS
BlockTokenSelector() - 类 的构造器org.apache.hadoop.hdfs.security.token.block.BlockTokenSelector
 
BLOOM_FILE_NAME - 类 中的静态变量org.apache.hadoop.io.BloomMapFile
 
BloomFilter - org.apache.hadoop.util.bloom中的类
Implements a Bloom filter, as defined by Bloom in 1970.
BloomFilter() - 类 的构造器org.apache.hadoop.util.bloom.BloomFilter
Default constructor - use with readFields
BloomFilter(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.BloomFilter
Constructor
BloomMapFile - org.apache.hadoop.io中的类
This class extends MapFile and provides very much the same functionality.
BloomMapFile() - 类 的构造器org.apache.hadoop.io.BloomMapFile
 
BloomMapFile.Reader - org.apache.hadoop.io中的类
 
BloomMapFile.Reader(FileSystem, String, Configuration) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Reader
 
BloomMapFile.Reader(FileSystem, String, WritableComparator, Configuration, boolean) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Reader
 
BloomMapFile.Reader(FileSystem, String, WritableComparator, Configuration) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Reader
 
BloomMapFile.Writer - org.apache.hadoop.io中的类
 
BloomMapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class<? extends Writable>, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BloomMapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType, Progressable) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BloomMapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BloomMapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BloomMapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType, Progressable) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BloomMapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BloomMapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BloomMapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class) - 类 的构造器org.apache.hadoop.io.BloomMapFile.Writer
 
BOOL - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
BOOLEAN_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
BooleanSplitter - org.apache.hadoop.mapreduce.lib.db中的类
Implement DBSplitter over boolean values.
BooleanSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.BooleanSplitter
 
BooleanWritable - org.apache.hadoop.io中的类
A WritableComparable for booleans.
BooleanWritable() - 类 的构造器org.apache.hadoop.io.BooleanWritable
 
BooleanWritable(boolean) - 类 的构造器org.apache.hadoop.io.BooleanWritable
 
BooleanWritable.Comparator - org.apache.hadoop.io中的类
A Comparator optimized for BooleanWritable.
BooleanWritable.Comparator() - 类 的构造器org.apache.hadoop.io.BooleanWritable.Comparator
 
BoolTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
Constant classes for the basic types, so we can share them.
broadcastCommand - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeManager
 
bufcolumn - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
buffer - 类 中的变量org.apache.hadoop.io.compress.CompressorStream
 
buffer - 类 中的变量org.apache.hadoop.io.compress.DecompressorStream
 
buffer() - 类 中的方法org.apache.hadoop.io.file.tfile.ByteArray
 
buffer() - 接口 中的方法org.apache.hadoop.io.file.tfile.RawComparable
Get the underlying byte array.
buffer - 类 中的变量org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
Buffer - org.apache.hadoop.record中的类
A byte sequence that is used as a Java native type for buffer.
Buffer() - 类 的构造器org.apache.hadoop.record.Buffer
Create a zero-count sequence.
Buffer(byte[]) - 类 的构造器org.apache.hadoop.record.Buffer
Create a Buffer using the byte array as the initial value.
Buffer(byte[], int, int) - 类 的构造器org.apache.hadoop.record.Buffer
Create a Buffer using the byte range as the initial value.
buffer - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
BUFFER - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
BUFFER_SIZE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
BUFFER_SIZE - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
BUFFER_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
BufferedFSInputStream - org.apache.hadoop.fs中的类
A class optimizes reading from FSInputStream by bufferring
BufferedFSInputStream(FSInputStream, int) - 类 的构造器org.apache.hadoop.fs.BufferedFSInputStream
Creates a BufferedFSInputStream with the specified buffer size, and saves its argument, the input stream in, for later use.
BufferSizeParam - org.apache.hadoop.hdfs.web.resources中的类
Buffer size parameter.
BufferSizeParam(Integer) - 类 的构造器org.apache.hadoop.hdfs.web.resources.BufferSizeParam
Constructor.
BufferSizeParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.BufferSizeParam
Constructor.
BufferTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
 
bufline - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
bufpos - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
BUGFIX_HDFS_2991_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.protocol.LayoutVersion
Version in which HDFS-2991 was fixed.
build() - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
Request the builder to build the final object.
build() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Build the MachineNode object.
build() - 类 中的方法org.apache.hadoop.tools.rumen.TopologyBuilder
Request the builder to build the final object.
buildDTServiceName(URI, int) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
create the service name for a Delegation token
buildListing(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
Build listing function creates the input listing that distcp uses to perform the copy.
buildMachineNodeMap() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
buildMsgFrom(URL) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
Shuffle specific utils - build string for encoding from URL
buildMsgFrom(HttpServletRequest) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
Shuffle specific utils - build string for encoding from URL
buildOptions() - 类 中的静态方法org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
Build command-line options and descriptions
buildRackNodeMap() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
buildRoot(HttpServletRequest, XMLOutputter) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.ListPathsServlet
Build a map from the query string, setting values and defaults.
buildTokenService(InetSocketAddress) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Construct the service key for a token
BuiltInGzipDecompressor - org.apache.hadoop.io.compress.zlib中的类
A Decompressor based on the popular gzip compressed file format.
BuiltInGzipDecompressor() - 类 的构造器org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Creates a new (pure Java) gzip decompressor.
BuiltInZlibDeflater - org.apache.hadoop.io.compress.zlib中的类
A wrapper around java.util.zip.Deflater to make it conform to org.apache.hadoop.io.compress.Compressor interface.
BuiltInZlibDeflater(int, boolean) - 类 的构造器org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
 
BuiltInZlibDeflater(int) - 类 的构造器org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
 
BuiltInZlibDeflater() - 类 的构造器org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
 
BuiltInZlibInflater - org.apache.hadoop.io.compress.zlib中的类
A wrapper around java.util.zip.Inflater to make it conform to org.apache.hadoop.io.compress.Decompressor interface.
BuiltInZlibInflater(boolean) - 类 的构造器org.apache.hadoop.io.compress.zlib.BuiltInZlibInflater
 
BuiltInZlibInflater() - 类 的构造器org.apache.hadoop.io.compress.zlib.BuiltInZlibInflater
 
BYTE - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
BYTE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
ByteArray - org.apache.hadoop.hdfs.util中的类
Wrapper for byte[] to use byte[] as key in HashMap
ByteArray(byte[]) - 类 的构造器org.apache.hadoop.hdfs.util.ByteArray
 
ByteArray - org.apache.hadoop.io.file.tfile中的类
Adaptor class to wrap byte-array backed objects (including java byte array) as RawComparable objects.
ByteArray(BytesWritable) - 类 的构造器org.apache.hadoop.io.file.tfile.ByteArray
Constructing a ByteArray from a BytesWritable.
ByteArray(byte[]) - 类 的构造器org.apache.hadoop.io.file.tfile.ByteArray
Wrap a whole byte array as a RawComparable.
ByteArray(byte[], int, int) - 类 的构造器org.apache.hadoop.io.file.tfile.ByteArray
Wrap a partial byte array as a RawComparable.
byteDesc(long) - 类 中的静态方法org.apache.hadoop.fs.FsShell
已过时。
Consider using StringUtils.byteDesc(long) instead.
byteDesc(long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Return an abbreviated English-language desc of the byte length
ByteRangeInputStream - org.apache.hadoop.hdfs中的类
To support HTTP byte streams, a new connection to an HTTP server needs to be created each time.
ByteRangeInputStream(ByteRangeInputStream.URLOpener, ByteRangeInputStream.URLOpener) - 类 的构造器org.apache.hadoop.hdfs.ByteRangeInputStream
Create with the specified URLOpeners.
ByteRangeInputStream.URLOpener - org.apache.hadoop.hdfs中的类
This class wraps a URL and provides method to open connection.
ByteRangeInputStream.URLOpener(URL) - 类 的构造器org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
 
bytes2String(byte[]) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
Converts a byte array to a string using UTF8 encoding.
bytesToCodePoint(ByteBuffer) - 类 中的静态方法org.apache.hadoop.io.Text
Returns the next code point at the current position in the buffer.
BytesWritable - org.apache.hadoop.io中的类
A byte sequence that is usable as a key or value.
BytesWritable() - 类 的构造器org.apache.hadoop.io.BytesWritable
Create a zero-size sequence.
BytesWritable(byte[]) - 类 的构造器org.apache.hadoop.io.BytesWritable
Create a BytesWritable using the byte array as the initial value.
BytesWritable.Comparator - org.apache.hadoop.io中的类
A Comparator optimized for BytesWritable.
BytesWritable.Comparator() - 类 的构造器org.apache.hadoop.io.BytesWritable.Comparator
 
byteToHexString(byte[], int, int) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Given an array of bytes it will convert the bytes to a hex string representation of the bytes
byteToHexString(byte[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Same as byteToHexString(bytes, 0, bytes.length).
ByteTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
 
ByteWritable - org.apache.hadoop.io中的类
A WritableComparable for a single byte.
ByteWritable() - 类 的构造器org.apache.hadoop.io.ByteWritable
 
ByteWritable(byte) - 类 的构造器org.apache.hadoop.io.ByteWritable
 
ByteWritable.Comparator - org.apache.hadoop.io中的类
A Comparator optimized for ByteWritable.
ByteWritable.Comparator() - 类 的构造器org.apache.hadoop.io.ByteWritable.Comparator
 
BZip2Codec - org.apache.hadoop.io.compress中的类
This class provides CompressionOutputStream and CompressionInputStream for compression and decompression.
BZip2Codec() - 类 的构造器org.apache.hadoop.io.compress.BZip2Codec
Creates a new instance of BZip2Codec
BZip2Constants - org.apache.hadoop.io.compress.bzip2中的接口
Base class for both the compress and decompress classes.
BZip2DummyCompressor - org.apache.hadoop.io.compress.bzip2中的类
This is a dummy compressor for BZip2.
BZip2DummyCompressor() - 类 的构造器org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
BZip2DummyDecompressor - org.apache.hadoop.io.compress.bzip2中的类
This is a dummy decompressor for BZip2.
BZip2DummyDecompressor() - 类 的构造器org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 

C

CACHE_ARCHIVES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_ARCHIVES is not a *public* constant.
CACHE_ARCHIVES_SIZES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_ARCHIVES_SIZES is not a *public* constant.
CACHE_ARCHIVES_TIMESTAMPS - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_ARCHIVES_TIMESTAMPS is not a *public* constant.
CACHE_ARCHIVES_VISIBILITIES - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
CACHE_FILE_VISIBILITIES - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
CACHE_FILES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_FILES is not a *public* constant.
CACHE_FILES_SIZES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_FILES_SIZES is not a *public* constant.
CACHE_FILES_TIMESTAMPS - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_FILES_TIMESTAMPS is not a *public* constant.
CACHE_LOCALARCHIVES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_LOCALARCHIVES is not a *public* constant.
CACHE_LOCALFILES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_LOCALFILES is not a *public* constant.
CACHE_SYMLINK - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
Warning: DistributedCache.CACHE_SYMLINK is not a *public* constant.
cacheArchives - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
CachedDNSToSwitchMapping - org.apache.hadoop.net中的类
A cached implementation of DNSToSwitchMapping that takes an raw DNSToSwitchMapping and stores the resolved network location in a cache.
CachedDNSToSwitchMapping(DNSToSwitchMapping) - 类 的构造器org.apache.hadoop.net.CachedDNSToSwitchMapping
 
cacheFiles - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.Groups
 
cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMapping
 
cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
 
cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
 
cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
 
cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsMapping
 
cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMapping
 
cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
 
cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
 
cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
 
cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsMapping
 
cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
cacheNetgroup(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
call(Writable, InetSocketAddress) - 类 中的方法org.apache.hadoop.ipc.Client
已过时。
call(Writable, InetSocketAddress, UserGroupInformation) - 类 中的方法org.apache.hadoop.ipc.Client
已过时。
call(Writable, InetSocketAddress, Class<?>, UserGroupInformation, int) - 类 中的方法org.apache.hadoop.ipc.Client
已过时。
call(Writable, InetSocketAddress, Class<?>, UserGroupInformation, int, Configuration) - 类 中的方法org.apache.hadoop.ipc.Client
Make a call, passing param, to the IPC server running at address which is servicing the protocol protocol, with the ticket credentials, rpcTimeout as timeout and conf as configuration for this connection, returning the value.
call(Writable, Client.ConnectionId) - 类 中的方法org.apache.hadoop.ipc.Client
Make a call, passing param, to the IPC server defined by remoteId, returning the value.
call(Writable[], InetSocketAddress[]) - 类 中的方法org.apache.hadoop.ipc.Client
call(Writable[], InetSocketAddress[], Class<?>, UserGroupInformation) - 类 中的方法org.apache.hadoop.ipc.Client
call(Writable[], InetSocketAddress[], Class<?>, UserGroupInformation, Configuration) - 类 中的方法org.apache.hadoop.ipc.Client
Makes a set of calls in parallel.
call(Method, Object[][], InetSocketAddress[], Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
call(Method, Object[][], InetSocketAddress[], UserGroupInformation, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Expert: Make multiple, parallel calls to a set of servers.
call(Class<?>, Writable, long) - 类 中的方法org.apache.hadoop.ipc.RPC.Server
 
call(Writable, long) - 类 中的方法org.apache.hadoop.ipc.Server
已过时。
call(Class<?>, Writable, long) - 类 中的方法org.apache.hadoop.ipc.Server
Called for each call.
camelize(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Convert SOME_STUFF to SomeStuff
cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
 
cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
 
cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
 
cancel() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
Cancels the request for readahead.
cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
 
cancel(Configuration) - 类 中的方法org.apache.hadoop.security.token.Token
Cancel this delegation token
cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
 
cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
Cancel the given token
cancelAllReservations() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Cleanup when the TaskTracker is declared as 'lost/blacklisted' by the JobTracker.
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
已过时。
Use Token.cancel instead.
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
已过时。
Use Token.cancel instead.
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Cancel an existing delegation token.
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
cancelDelegationToken(String, InetSocketAddress, Token<DelegationTokenIdentifier>, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
Cancel a Delegation Token.
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobClient
Cancel a delegation token from the JobTracker
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Discard a current delegation token.
cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
CancelDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
Cancel delegation tokens over http for use in hftp.
CancelDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.CancelDelegationTokenServlet
 
cancelToken(Token<TokenIdent>, String) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Cancel a token by removing it from cache.
canCommit(TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Child checking whether it can commit
canCommit(TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Polling to know whether the task can go-ahead with commit
canParse(InputStream) - 类 中的静态方法org.apache.hadoop.tools.rumen.Hadoop20JHParser
Can this parser parse the input?
capacity - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
capitalize(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Capitalize a word
captureDebugOut(List<String>, File) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Wrap a command in a shell to capture debug script's stdout and stderr to debugout.
captureOutAndError(List<String>, File, File, long) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Wrap a command in a shell to capture stdout and stderr to files.
captureOutAndError(List<String>, List<String>, File, File, long) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Wrap a command in a shell to capture stdout and stderr to files.
captureOutAndError(List<String>, List<String>, File, File, long, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
已过时。
pidFiles are no more used. Instead pid is exported to env variable JVM_PID.
captureOutAndError(List<String>, List<String>, File, File, long, boolean, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
已过时。
pidFiles are no more used. Instead pid is exported to env variable JVM_PID.
captureOutAndError(List<String>, List<String>, File, File, long, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Wrap a command in a shell to capture stdout and stderr to files.
CBZip2InputStream - org.apache.hadoop.io.compress.bzip2中的类
An input stream that decompresses from the BZip2 format (without the file header chars) to be read as any other stream.
CBZip2InputStream(InputStream, SplittableCompressionCodec.READ_MODE) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
Constructs a new CBZip2InputStream which decompresses bytes read from the specified stream.
CBZip2InputStream(InputStream) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
 
CBZip2InputStream.STATE - org.apache.hadoop.io.compress.bzip2中的枚举
A state machine to keep track of current state of the de-coder
CBZip2OutputStream - org.apache.hadoop.io.compress.bzip2中的类
An output stream that compresses into the BZip2 format (without the file header chars) into another stream.
CBZip2OutputStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
Constructs a new CBZip2OutputStream with a blocksize of 900k.
CBZip2OutputStream(OutputStream, int) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
Constructs a new CBZip2OutputStream with specified blocksize.
CDFPiecewiseLinearRandomGenerator - org.apache.hadoop.tools.rumen中的类
 
CDFPiecewiseLinearRandomGenerator(LoggedDiscreteCDF) - 类 的构造器org.apache.hadoop.tools.rumen.CDFPiecewiseLinearRandomGenerator
 
CDFPiecewiseLinearRandomGenerator(LoggedDiscreteCDF, long) - 类 的构造器org.apache.hadoop.tools.rumen.CDFPiecewiseLinearRandomGenerator
 
CDFRandomGenerator - org.apache.hadoop.tools.rumen中的类
An instance of this class generates random values that confirm to the embedded LoggedDiscreteCDF .
ChainMapper - org.apache.hadoop.mapred.lib中的类
The ChainMapper class allows to use multiple Mapper classes within a single Map task.
ChainMapper() - 类 的构造器org.apache.hadoop.mapred.lib.ChainMapper
Constructor.
ChainReducer - org.apache.hadoop.mapred.lib中的类
The ChainReducer class allows to chain multiple Mapper classes after a Reducer within the Reducer task.
ChainReducer() - 类 的构造器org.apache.hadoop.mapred.lib.ChainReducer
Constructor.
changed() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
 
charAt(int) - 类 中的方法org.apache.hadoop.io.Text
Returns the Unicode Scalar Value (32-bit integer value) for the character at position.
checkAccess(BlockTokenIdentifier, String, Block, BlockTokenSecretManager.AccessMode) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Check if access should be allowed. userID is not checked if null.
checkAccess(Token<BlockTokenIdentifier>, String, Block, BlockTokenSecretManager.AccessMode) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Check if access should be allowed. userID is not checked if null
checkArg(T, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
Check an argument for false conditions
checkArg(int, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
Check an argument for false conditions
checkArg(long, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
Check an argument for false conditions
checkArg(float, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
Check an argument for false conditions
checkArg(double, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
Check an argument for false conditions
checkDataDir() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
check if a data directory is healthy if some volumes failed - make sure to remove all the blocks that belong to these volumes
checkDataDir() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Check if all the data directories are healthy
checkDir(File) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
Create the directory if it doesn't exist and
checkDir(LocalFileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
Create the local directory if necessary, check permissions and also ensure it can be read from and written into.
checkDiskError(Exception) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Check if there is no space in disk
checkDiskError() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Check if there is a disk failure and if so, handle the error
checkException(IOException) - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
Parse the exception to see if it matches the regular expression you configured.
checkNotNull(T, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
Check that a reference is not null.
checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.FileOutputFormat
 
checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
Check for validity of the output-specification for the job.
checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.NullOutputFormat
 
checkOutputSpecs(FileSystem, JobConf) - 接口 中的方法org.apache.hadoop.mapred.OutputFormat
Check for validity of the output-specification for the job.
checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
 
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
 
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
 
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
 
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
 
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
 
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
 
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
Check for validity of the output-specification for the job.
checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
 
checkPath(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Check that a Path belongs to this FileSystem.
checkPath(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Check that a Path belongs to this FileSystem.
checkpoint() - 类 中的方法org.apache.hadoop.fs.Trash
Create a trash checkpoint.
CheckpointSignature - org.apache.hadoop.hdfs.server.namenode中的类
A unique signature intended to identify checkpoint transactions.
checkpointTime - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSImage
 
checkRestart() - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
 
checkState(boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
Check the state expression for false conditions
checkStream() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
checksum2long(byte[]) - 类 中的静态方法org.apache.hadoop.fs.FSInputChecker
Convert a checksum byte array to a long
CHECKSUM_CRC32 - 类 中的静态变量org.apache.hadoop.util.DataChecksum
 
CHECKSUM_NULL - 类 中的静态变量org.apache.hadoop.util.DataChecksum
 
ChecksumDistributedFileSystem - org.apache.hadoop.hdfs中的类
An implementation of ChecksumFileSystem over DistributedFileSystem.
ChecksumDistributedFileSystem() - 类 的构造器org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
 
ChecksumDistributedFileSystem(InetSocketAddress, Configuration) - 类 的构造器org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
已过时。 
ChecksumException - org.apache.hadoop.fs中的异常错误
Thrown for checksum errors.
ChecksumException(String, long) - 异常错误 的构造器org.apache.hadoop.fs.ChecksumException
 
ChecksumFileSystem - org.apache.hadoop.fs中的类
Abstract Checksumed FileSystem.
ChecksumFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.fs.ChecksumFileSystem
 
checksumsAreEqual(FileSystem, Path, FileSystem, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Utility to compare checksums for the paths specified.
ChecksumUtil - org.apache.hadoop.util中的类
 
ChecksumUtil() - 类 的构造器org.apache.hadoop.util.ChecksumUtil
 
checkTGTAndReloginFromKeytab() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Re-login a user from keytab if TGT is expired or is close to expiry.
checkURIs(URI[], URI[]) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
This method checks if there is a conflict in the fragment names of the uris.
checkVersion(Class<? extends VersionedProtocol>, long, VersionedProtocol) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Get server version and then compare it with client version.
checkVersionUpgradable(int) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
Checks if the upgrade from the given old version is supported.
chmod(String, String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Change the permissions on a filename.
chmod(String, String, boolean) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Change the permissions on a file / directory, recursively, if needed.
chmod(String, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
Wrapper around chmod(2)
ChmodParser - org.apache.hadoop.fs.permission中的类
Parse a permission mode passed in from a chmod command and apply that mode against an existing file.
ChmodParser(String) - 类 的构造器org.apache.hadoop.fs.permission.ChmodParser
 
chooseBlockSize(long) - 类 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
Chooses a blocksize based on the given length of the data to compress.
chooseDatanode(String, String, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Choose a datanode near to the given address.
chooseLocalNode(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
 
chooseLocalNode(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
choose local node of localMachine as the target.
chooseLocalRack(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
 
chooseLocalRack(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
 
chooseRandom(String, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
 
chooseRandom(int, String, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
 
chooseRandom(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
randomly choose one node from scope if scope starts with ~, choose one from the all nodes except for the ones in scope; otherwise, choose one from scope
chooseRemoteRack(int, DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
 
chooseRemoteRack(int, DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
 
chooseReplicaToDelete(FSInodeInfo, Block, short, Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
Decide whether deleting the specified replica of the block still makes the block conform to the configured block placement policy.
chooseReplicaToDelete(FSInodeInfo, Block, short, Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
Decide whether deleting the specified replica of the block still makes the block conform to the configured block placement policy.
chooseShardForDelete(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
 
chooseShardForDelete(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
 
chooseShardForDelete(DocumentID) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IDistributionPolicy
Choose a shard or all shards to send a delete request.
chooseShardForInsert(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
 
chooseShardForInsert(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
 
chooseShardForInsert(DocumentID) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IDistributionPolicy
Choose a shard to send an insert request.
chooseTarget(String, int, DatanodeDescriptor, List<DatanodeDescriptor>, HashMap<Node, Node>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
choose numOfReplicas data nodes for writer to re-replicate a block with size blocksize If not, return as many as we can.
chooseTarget(String, int, DatanodeDescriptor, HashMap<Node, Node>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
choose numOfReplicas nodes for writer to replicate a block with size blocksize If not, return as many as we can.
chooseTarget(String, int, DatanodeDescriptor, List<DatanodeDescriptor>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
choose numOfReplicas data nodes for writer to re-replicate a block with size blocksize If not, return as many as we can.
chooseTarget(String, int, DatanodeDescriptor, List<DatanodeDescriptor>, HashMap<Node, Node>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
choose numOfReplicas data nodes for writer to re-replicate a block with size blocksize If not, return as many as we can.
chooseTarget(FSInodeInfo, int, DatanodeDescriptor, List<DatanodeDescriptor>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
choose numOfReplicas data nodes for writer If not, return as many as we can.
ClassUtil - org.apache.hadoop.util中的类
 
ClassUtil() - 类 的构造器org.apache.hadoop.util.ClassUtil
 
clean(long) - 类 中的方法org.apache.hadoop.mapred.JobHistory.HistoryCleaner
 
cleanup(Log, Closeable...) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Close the Closeable objects and ignore any IOException or null pointers.
cleanup() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
The default cleanup.
cleanup(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
Called once at the end of the task.
cleanup(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
Called once at the end of the task.
cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
已过时。
cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
已过时。
cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
已过时。
cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
cleanUpMetrics() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Called when the job is complete
cleanupProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
cleanupProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the progress of the job's cleanup-tasks, as a float between 0.0 and 1.0.
CleanupQueue - org.apache.hadoop.mapred中的类
 
CleanupQueue() - 类 的构造器org.apache.hadoop.mapred.CleanupQueue
Create a singleton path-clean-up queue.
cleanupStorage() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Removes all contents of temporary storage.
cleanupThread - 类 中的变量org.apache.hadoop.filecache.TrackerDistributedCacheManager
 
cleanUpTokenReferral(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
Remove jobtoken referrals which don't make sense in the context of the task execution.
clear() - 类 中的方法org.apache.hadoop.conf.Configuration
Clears all keys from the configuration.
clear() - 类 中的方法org.apache.hadoop.fs.HardLink.LinkStats
 
clear() - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
 
clear() - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
 
clear() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
clear() - 类 中的方法org.apache.hadoop.io.MapWritable
clear() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
clear() - 类 中的方法org.apache.hadoop.io.Text
Clear the string to empty.
clear() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
clear() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
clear() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
clear() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
Close datasources, but do not release internal resources.
clear() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
clear() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
 
clear() - 类 中的方法org.apache.hadoop.security.NetgroupCache
 
clear() - 类 中的方法org.apache.hadoop.util.bloom.HashFunction
Clears this hash function.
clear() - 类 中的方法org.apache.hadoop.util.PriorityQueue
Removes all entries from the PriorityQueue.
clearChanged() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
Clear the changed flag in the snapshot operations
clearDirectory() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Clear and re-create storage directory.
CLEARMASK - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
clearOldUserLogs(Configuration) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
Clears all the logs in userlogs directory.
clearOldUserLogs(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
Called during TaskTracker restart/re-init.
clearStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
 
Client - org.apache.hadoop.ipc中的类
A client for an IPC service.
Client(Class<? extends Writable>, Configuration, SocketFactory) - 类 的构造器org.apache.hadoop.ipc.Client
Construct an IPC client whose values are of the given Writable class.
Client(Class<? extends Writable>, Configuration) - 类 的构造器org.apache.hadoop.ipc.Client
Construct an IPC client with the default SocketFactory
ClientDatanodeProtocol - org.apache.hadoop.hdfs.protocol中的接口
An client-datanode protocol for block recovery
ClientProtocol - org.apache.hadoop.hdfs.protocol中的接口
ClientProtocol is used by user code via DistributedFileSystem class to communicate with the NameNode.
ClientTraceLog - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
clone(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
 
clone(T, Configuration) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Make a copy of a writable object using serialization to a buffer.
clone() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
clone() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
clone() - 类 中的方法org.apache.hadoop.record.Buffer
 
clone() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
 
cloneFileAttributes(Path, Path, Progressable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Clones the attributes (like compression of the input file and creates a corresponding Writer
cloneFrom(MachineNode) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Clone the settings from a reference MachineNode object.
cloneInto(Writable, Writable) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
已过时。
use ReflectionUtils.cloneInto instead.
cloneWritableInto(Writable, Writable) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
已过时。
close() - 类 中的方法org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
 
close() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
 
close() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
 
close() - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
close() - 类 中的方法org.apache.hadoop.contrib.index.lucene.ShardWriter
Close the shard writer.
close() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
 
close() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
 
close() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
 
close() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
close() - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
close() - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
close() - 接口 中的方法org.apache.hadoop.contrib.utils.join.ResetableIterator
 
close() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
 
close() - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiReducer
Reduce task done, write output to a file.
close() - 类 中的方法org.apache.hadoop.examples.SleepJob
 
close() - 类 中的方法org.apache.hadoop.fs.FileSystem
No more filesystem operations are needed.
close() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
 
close() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
 
close() - 类 中的方法org.apache.hadoop.fs.FsShell
 
close() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
close() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
close() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
close() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
 
close() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Close the file system, abandoning all of the leases and files being created and close connections to the namenode.
close() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
Close it down!
close() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
close() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
No more filesystem operations are needed.
close() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
close() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface.BlockInputStreams
close() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
Shutdown the file store.
close() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Close down this file system manager.
close() - 类 中的方法org.apache.hadoop.hdfs.util.AtomicFileOutputStream
 
close() - 类 中的方法org.apache.hadoop.io.BloomMapFile.Writer
 
close() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
 
close() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
 
close() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
 
close() - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
 
close() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
 
close() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
close() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
 
close() - 类 中的方法org.apache.hadoop.io.DefaultStringifier
 
close() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Close the reader.
close() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Close the scanner.
close() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
Close the Writer.
close() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Close the map.
close() - 类 中的方法org.apache.hadoop.io.MapFile.Writer
Close the map.
close() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Close the file.
close() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
closes the iterator so that the underlying streams can be closed
close() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
Close the file.
close() - 接口 中的方法org.apache.hadoop.io.serializer.Deserializer
Close the underlying input stream and clear up any resources.
close() - 接口 中的方法org.apache.hadoop.io.serializer.Serializer
Close the underlying output stream and clear up any resources.
close() - 接口 中的方法org.apache.hadoop.io.Stringifier
Closes this object.
close() - 类 中的方法org.apache.hadoop.log.metrics.EventCounter
 
close() - 类 中的方法org.apache.hadoop.mapred.JobClient
Close the JobClient.
close() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
close() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Close all child RRs.
close() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
close() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
close() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
Close datasources and release resources.
close() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
close() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
 
close() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Forward close request to proxied RR.
close() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
Do nothing.
close() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
 
close() - 类 中的方法org.apache.hadoop.mapred.lib.ChainMapper
Closes the ChainMapper and all the Mappers in the chain.
close() - 类 中的方法org.apache.hadoop.mapred.lib.ChainReducer
Closes the ChainReducer, the Reducer and all the Mappers in the chain.
close() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
Close this InputSplit to future operations.
close(Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat.DBRecordWriter
Close this RecordWriter to future operations.
close() - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingMapper
 
close() - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
 
close() - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
Closes all the opened named outputs.
close() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapred.MapReduceBase
Default implementation that does nothing.
close() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
Closes the iterator so that the underlying streams can be closed.
close() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
Close this InputSplit to future operations.
close(Reporter) - 接口 中的方法org.apache.hadoop.mapred.RecordWriter
Close this RecordWriter to future operations.
close() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
 
close() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Close down the TaskTracker and all its components.
close(Reporter) - 类 中的方法org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
 
close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
Close this RecordWriter to future operations.
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
Close the record reader.
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
 
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
 
close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
 
close() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Closes all the opened outputs.
close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
 
close() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
Close the record reader.
close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.RecordWriter
Close this RecordWriter to future operations.
close() - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
removing all tokens renewals
close() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Stops monitoring and also frees any buffered data, returning this object to its initial state.
close() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Stops monitoring and frees buffered data, returning this object to its initial state.
close() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
close() - 类 中的方法org.apache.hadoop.net.SocketInputStream
 
close() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
 
close() - 类 中的方法org.apache.hadoop.security.SaslInputStream
Closes this input stream and releases any system resources associated with the stream.
close() - 类 中的方法org.apache.hadoop.security.SaslOutputStream
Closes this output stream and releases any system resources associated with this stream.
close() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
 
close() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
 
close() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
Close this to future operations.
close() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
Implementation of RecordReader::close().
close() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
 
close() - 类 中的方法org.apache.hadoop.tools.rumen.DefaultInputDemuxer
 
close() - 类 中的方法org.apache.hadoop.tools.rumen.DefaultOutputter
 
close() - 类 中的方法org.apache.hadoop.tools.rumen.DeskewedJobTraceReader
 
close() - 类 中的方法org.apache.hadoop.tools.rumen.Hadoop20JHParser
 
close() - 类 中的方法org.apache.hadoop.tools.rumen.JsonObjectMapperWriter
 
close() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
 
close() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJobProducer
 
close() - 类 中的方法org.apache.hadoop.util.LineReader
Close the underlying stream.
Closeable - org.apache.hadoop.io中的接口
已过时。
use java.io.Closeable
closeAll() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Close all cached filesystems.
closeAllForUGI(UserGroupInformation) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Close all cached filesystems for a given UGI.
closeConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
 
closed - 类 中的变量org.apache.hadoop.io.compress.CompressorStream
 
closed - 类 中的变量org.apache.hadoop.io.compress.DecompressorStream
 
closeSocket(Socket) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Closes the socket ignoring IOException
closeStream(Closeable) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Closes the stream ignoring IOException.
closeWriter() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
Close the Lucene index writer associated with the intermediate form, if created.
clusterMap - 类 中的变量org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
 
ClusterMetrics - org.apache.hadoop.mapreduce中的类
Status information on the current state of the Map-Reduce cluster.
ClusterMetrics() - 类 的构造器org.apache.hadoop.mapreduce.ClusterMetrics
 
ClusterMetrics(int, int, int, int, int, int, int, int, int, int, int, int, int) - 类 的构造器org.apache.hadoop.mapreduce.ClusterMetrics
 
ClusterStatus - org.apache.hadoop.mapred中的类
Status information on the current state of the Map-Reduce cluster.
ClusterStory - org.apache.hadoop.tools.rumen中的接口
ClusterStory represents all configurations of a MapReduce cluster, including nodes, network topology, and slot configurations.
ClusterTopologyReader - org.apache.hadoop.tools.rumen中的类
Reading JSON-encoded cluster topology and produce the parsed LoggedNetworkTopology object.
ClusterTopologyReader(Path, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.ClusterTopologyReader
Constructor.
ClusterTopologyReader(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.ClusterTopologyReader
Constructor.
cmpcl - 类 中的变量org.apache.hadoop.mapred.join.Parser.Node
 
code - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.AuthMethod
The code for this method.
CodeBuffer - org.apache.hadoop.record.compiler中的类
A wrapper around StringBuffer that automatically does indentation
CodecPool - org.apache.hadoop.io.compress中的类
A global compressor/decompressor pool used to save and reuse (possibly native) compression/decompression codecs.
CodecPool() - 类 的构造器org.apache.hadoop.io.compress.CodecPool
 
collate(Object[], String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
collate(List, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
collect(Object, TaggedMapOutput, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
The subclass can overwrite this method to perform additional filtering and/or other processing logic before a value is collected.
collect(K, V) - 接口 中的方法org.apache.hadoop.mapred.OutputCollector
Adds a key/value pair to the output.
collect(K, V) - 类 中的方法org.apache.hadoop.mapred.Task.CombineOutputCollector
 
collected - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
column - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
combine(Object[], Object[]) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
 
combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.InnerJoinRecordReader
Return true iff the tuple is full (all data sources contain this key).
combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
Default implementation offers MultiFilterRecordReader.emit(org.apache.hadoop.mapred.join.TupleWritable) every Tuple from the collector (the outer join of child RRs).
combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.OuterJoinRecordReader
Emit everything from the collector.
combine(RawKeyValueIterator, OutputCollector<K, V>) - 类 中的方法org.apache.hadoop.mapred.Task.OldCombinerRunner
 
COMBINE_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
CombineFileInputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
CombineFileInputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileInputFormat
default constructor
CombineFileInputFormat<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
An abstract InputFormat that returns CombineFileSplit's in InputFormat.getSplits(JobContext) method.
CombineFileInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
default constructor
CombineFileRecordReader<K,V> - org.apache.hadoop.mapred.lib中的类
A generic RecordReader that can hand out different recordReaders for each chunk in a CombineFileSplit.
CombineFileRecordReader(JobConf, CombineFileSplit, Reporter, Class<RecordReader<K, V>>) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileRecordReader
A generic RecordReader that can hand out different recordReaders for each chunk in the CombineFileSplit.
CombineFileRecordReader<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
A generic RecordReader that can hand out different recordReaders for each chunk in a CombineFileSplit.
CombineFileRecordReader(CombineFileSplit, TaskAttemptContext, Class<? extends RecordReader<K, V>>) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
A generic RecordReader that can hand out different recordReaders for each chunk in the CombineFileSplit.
CombineFileSplit - org.apache.hadoop.mapred.lib中的类
A sub-collection of input files.
CombineFileSplit() - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
default constructor
CombineFileSplit(JobConf, Path[], long[], long[], String[]) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
 
CombineFileSplit(JobConf, Path[], long[]) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
 
CombineFileSplit(CombineFileSplit) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
Copy constructor
CombineFileSplit - org.apache.hadoop.mapreduce.lib.input中的类
A sub-collection of input files.
CombineFileSplit() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
default constructor
CombineFileSplit(Path[], long[], long[], String[]) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
 
CombineFileSplit(Path[], long[]) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
 
CombineFileSplit(CombineFileSplit) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Copy constructor
comCmd_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
COMMA - 类 中的静态变量org.apache.hadoop.util.StringUtils
 
COMMA_STR - 类 中的静态变量org.apache.hadoop.util.StringUtils
 
COMMA_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
Command - org.apache.hadoop.fs.shell中的类
An abstract class for the execution of a file system command
Command(Configuration) - 类 的构造器org.apache.hadoop.fs.shell.Command
Constructor
COMMAND_FILE - 类 中的静态变量org.apache.hadoop.mapred.TaskController
 
CommandFormat - org.apache.hadoop.fs.shell中的类
Parse the args of a command and check the format of args.
CommandFormat(String, int, int, String...) - 类 的构造器org.apache.hadoop.fs.shell.CommandFormat
constructor
commit() - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
 
commitBlockSynchronization(Block, long, long, boolean, boolean, DatanodeID[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
commitBlockSynchronization(Block, long, long, boolean, boolean, DatanodeID[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Commit block synchronization in lease recovery
commitBlockSynchronization(Block, long, long, boolean, boolean, DatanodeID[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
Commit block synchronization in lease recovery
commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
 
commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
For committing job's output after successful job completion.
commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
This method implements the new interface by calling the old method.
commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Delete the temporary directory, including all of the work directories.
commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
For cleaning up the job's output after job completion.
commitJob(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyCommitter
 
commitPending(TaskAttemptID, TaskStatus, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Task is reporting that it is in commit_pending and it is waiting for the commit Response
commitPending(TaskAttemptID, TaskStatus, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report that the task is complete, but its commit is pending.
commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
 
commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
To promote the task's temporary output to final output location The task's output is moved to the job's output directory.
commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
This method implements the new interface by calling the old method.
commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Move the files from the work directory to the job output directory
commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
To promote the task's temporary output to final output location The task's output is moved to the job's output directory.
committer - 类 中的变量org.apache.hadoop.mapred.Task
 
CommonConfigurationKeys - org.apache.hadoop.fs中的类
This class contains constants for configuration keys used in the common code.
CommonConfigurationKeys() - 类 的构造器org.apache.hadoop.fs.CommonConfigurationKeys
 
comparator() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
COMPARATOR_JCLASS - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
comparator prefix: java class
COMPARATOR_MEMCMP - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
comparator: memcmp
COMPARATOR_OPTIONS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.FirstGroupingComparator
 
compare(SecondarySort.IntPair, SecondarySort.IntPair) - 类 中的方法org.apache.hadoop.examples.SecondarySort.FirstGroupingComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair.Comparator
 
compare(DatanodeInfo, DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.DFSUtil.StaleComparator
 
compare(long, long) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.GenerationStamp
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.BooleanWritable.Comparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.BytesWritable.Comparator
Compare the buffers in serialized form.
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.ByteWritable.Comparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.DoubleWritable.Comparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.FloatWritable.Comparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.IntWritable.Comparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.LongWritable.Comparator
 
compare(WritableComparable, WritableComparable) - 类 中的方法org.apache.hadoop.io.LongWritable.DecreasingComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.LongWritable.DecreasingComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.MD5Hash.Comparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.NullWritable.Comparator
Compare the buffers in serialized form.
compare(byte[], int, int, byte[], int, int) - 接口 中的方法org.apache.hadoop.io.RawComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.serializer.DeserializerComparator
 
compare(T, T) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerializationComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.Text.Comparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.UTF8.Comparator
已过时。
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.WritableComparator
Optimization hook.
compare(WritableComparable, WritableComparable) - 类 中的方法org.apache.hadoop.io.WritableComparator
Compare two WritableComparables.
compare(Object, Object) - 类 中的方法org.apache.hadoop.io.WritableComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.record.RecordComparator
 
compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
 
compare(byte[], int) - 类 中的方法org.apache.hadoop.util.DataChecksum
Compares the checksum located at buf[offset] with the current checksum.
compare(int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSortable
Compare items at the given addresses consistent with the semantics of Comparator.compare(Object, Object).
compareBytes(byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Lexicographic order of binary data.
compareBytes(byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.record.Utils
Lexicographic order of binary data.
compareFs(FileSystem, FileSystem) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
 
compareTo(Object) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
 
compareTo(Object) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
 
compareTo(Shard) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
Compare to another shard.
compareTo(Object) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
 
compareTo(SecondarySort.IntPair) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
 
compareTo(Object) - 类 中的方法org.apache.hadoop.fs.FileStatus
Compare this object to another object
compareTo(Object) - 类 中的方法org.apache.hadoop.fs.Path
 
compareTo(Block) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
compareTo(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
Comparable.
compareTo(GenerationStamp) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
compareTo(Upgradeable) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
 
compareTo(CheckpointSignature) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
 
compareTo(BinaryComparable) - 类 中的方法org.apache.hadoop.io.BinaryComparable
Compare bytes from {#getBytes()}.
compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.io.BinaryComparable
Compare bytes from {#getBytes()} to those provided.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.BooleanWritable
 
compareTo(Object) - 类 中的方法org.apache.hadoop.io.ByteWritable
Compares two ByteWritables.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.DoubleWritable
 
compareTo(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Compare the entry key to another key.
compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Compare the entry key to another key.
compareTo(RawComparable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Compare an entry with a RawComparable object.
compareTo(Utils.Version) - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
Compare this version with another version.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.FloatWritable
Compares two FloatWritables.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.IntWritable
Compares two IntWritables.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.LongWritable
Compares two LongWritables.
compareTo(MD5Hash) - 类 中的方法org.apache.hadoop.io.MD5Hash
Compares this object with the specified object for order.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.NullWritable
 
compareTo(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
 
compareTo(UTF8) - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
Compare two UTF8s.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.VIntWritable
Compares two VIntWritables.
compareTo(Object) - 类 中的方法org.apache.hadoop.io.VLongWritable
Compares two VLongWritables.
compareTo(ComposableRecordReader<K, ?>) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Implement Comparable contract (compare key of join or head of heap with that of another).
compareTo(ComposableRecordReader<K, ?>) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Implement Comparable contract (compare key at head of proxied RR with that of another).
compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.ID
Compare IDs by associated numbers
compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.JobID
Compare JobIds by first jtIdentifiers, then by job numbers
compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
Compare TaskIds by first tipIds, then by task numbers.
compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
Compare TaskInProgressIds by first jobIds, then by tip numbers.
compareTo(Object) - 类 中的方法org.apache.hadoop.record.Buffer
Define the sort order of the Buffer.
compareTo(Object) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
This class doesn't implement Comparable as it's not meant to be used for anything besides de/serializing.
compareTo(Object) - 类 中的方法org.apache.hadoop.record.Record
 
compareTo(Node) - 类 中的方法org.apache.hadoop.tools.rumen.Node
 
compareTo(Key) - 类 中的方法org.apache.hadoop.util.bloom.Key
 
compatibleWith(Utils.Version) - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
Test compatibility.
compile(String) - 类 中的静态方法org.apache.hadoop.fs.GlobPattern
Compile glob pattern string
compile(String) - 类 中的方法org.apache.hadoop.metrics2.filter.GlobFilter
 
compile(String) - 类 中的方法org.apache.hadoop.metrics2.filter.RegexFilter
 
compiled() - 类 中的方法org.apache.hadoop.fs.GlobPattern
 
complete(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
The client is done writing data to the given filename, and would like to complete it.
complete(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
The client is done writing data to the given filename, and would like to complete it.
complete() - 类 中的方法org.apache.hadoop.util.Progress
Completes this node, moving the parent node to its next child.
completedJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
completedTask(TaskInProgress, TaskStatus) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
A taskid assigned to this JobInProgress has reported in successfully.
completeFile(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
 
completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Called when we're all done writing to the target.
completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Called when we're all done writing to the target.
completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
not implemented.
completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
completeTask(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
 
completeUpgrade() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
Complete upgrade.
completeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
completeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
Complete upgrade and return a status complete command for broadcasting.
ComposableInputFormat<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的接口
Refinement of InputFormat requiring implementors to provide ComposableRecordReader instead of RecordReader.
ComposableRecordReader<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的接口
Additional operations required of a RecordReader to participate in a join.
compose(Class<? extends InputFormat>, String) - 类 中的静态方法org.apache.hadoop.mapred.join.CompositeInputFormat
Convenience method for constructing composite formats.
compose(String, Class<? extends InputFormat>, String...) - 类 中的静态方法org.apache.hadoop.mapred.join.CompositeInputFormat
Convenience method for constructing composite formats.
compose(String, Class<? extends InputFormat>, Path...) - 类 中的静态方法org.apache.hadoop.mapred.join.CompositeInputFormat
Convenience method for constructing composite formats.
CompositeContext - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
CompositeContext() - 类 的构造器org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
CompositeInputFormat<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
An InputFormat capable of performing joins over a set of data sources sorted and partitioned the same way.
CompositeInputFormat() - 类 的构造器org.apache.hadoop.mapred.join.CompositeInputFormat
 
CompositeInputSplit - org.apache.hadoop.mapred.join中的类
This InputSplit contains a set of child InputSplits.
CompositeInputSplit() - 类 的构造器org.apache.hadoop.mapred.join.CompositeInputSplit
 
CompositeInputSplit(int) - 类 的构造器org.apache.hadoop.mapred.join.CompositeInputSplit
 
CompositeRecordReader<K extends WritableComparable,V extends Writable,X extends Writable> - org.apache.hadoop.mapred.join中的类
A RecordReader that can effect joins of RecordReaders sharing a common key type and partitioning.
CompositeRecordReader(int, int, Class<? extends WritableComparator>) - 类 的构造器org.apache.hadoop.mapred.join.CompositeRecordReader
Create a RecordReader with capacity children to position id in the parent reader.
compress() - 类 中的方法org.apache.hadoop.io.compress.BlockCompressorStream
 
compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
compress(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Fills specified buffer with compressed data.
compress() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
 
compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Fills specified buffer with compressed data.
compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
 
compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
compressedValSerializer - 类 中的变量org.apache.hadoop.io.SequenceFile.Writer
 
CompressedWritable - org.apache.hadoop.io中的类
A base-class for Writables which store themselves compressed and lazily inflate on field access.
CompressedWritable() - 类 的构造器org.apache.hadoop.io.CompressedWritable
 
COMPRESSION_GZ - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
compression: gzip
COMPRESSION_LZO - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
compression: lzo
COMPRESSION_NONE - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
compression: none
CompressionCodec - org.apache.hadoop.io.compress中的接口
This class encapsulates a streaming compression/decompression pair.
CompressionCodecFactory - org.apache.hadoop.io.compress中的类
A factory that will find the correct codec for a given filename.
CompressionCodecFactory(Configuration) - 类 的构造器org.apache.hadoop.io.compress.CompressionCodecFactory
Find the codecs specified in the config value io.compression.codecs and register them.
CompressionInputStream - org.apache.hadoop.io.compress中的类
A compression input stream.
CompressionInputStream(InputStream) - 类 的构造器org.apache.hadoop.io.compress.CompressionInputStream
Create a compression input stream that reads the decompressed bytes from the given stream.
CompressionOutputStream - org.apache.hadoop.io.compress中的类
A compression output stream.
CompressionOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.CompressionOutputStream
Create a compression output stream that writes the compressed bytes to the given stream.
Compressor - org.apache.hadoop.io.compress中的接口
Specification of a stream-based 'compressor' which can be plugged into a CompressionOutputStream to compress data.
compressor - 类 中的变量org.apache.hadoop.io.compress.CompressorStream
 
CompressorStream - org.apache.hadoop.io.compress中的类
 
CompressorStream(OutputStream, Compressor, int) - 类 的构造器org.apache.hadoop.io.compress.CompressorStream
 
CompressorStream(OutputStream, Compressor) - 类 的构造器org.apache.hadoop.io.compress.CompressorStream
 
CompressorStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.CompressorStream
Allow derived classes to directly set the underlying stream.
computeCapacity(double, String) - 类 中的静态方法org.apache.hadoop.hdfs.util.LightWeightGSet
Let t = percentage of max memory.
computeDatanodeWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Compute block replication and block invalidation work that can be scheduled on data-nodes.
computeHash(byte[], SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Compute the HMAC hash of the message using the key
computeSignature(String) - 类 中的方法org.apache.hadoop.security.authentication.util.Signer
Returns then signature of a string.
computeSplitSize(long, long, long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
 
computeSplitSize(long, long, long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
 
concat(Path, Path[]) - 类 中的方法org.apache.hadoop.fs.FileSystem
Concat existing files together.
concat(Path, Path[]) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
 
concat(String, String[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Move blocks from src to trg and delete src See ClientProtocol.concat(String, String []).
concat(Path, Path[]) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Move blocks from srcs to trg and delete srcs afterwards.
concat(String, String[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Moves blocks from srcs to trg and delete srcs
concat(String, String[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Moves blocks from srcs to trg and delete srcs
concat(Path, Path[]) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
ConcatSourcesParam - org.apache.hadoop.hdfs.web.resources中的类
The concat source paths parameter.
ConcatSourcesParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
Constructor.
ConcatSourcesParam(Path[]) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
 
conf - 类 中的变量org.apache.hadoop.mapred.SequenceFileRecordReader
 
conf - 类 中的变量org.apache.hadoop.mapred.Task
 
conf - 类 中的变量org.apache.hadoop.mapreduce.JobContext
 
conf - 类 中的变量org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
 
CONF_CONTEXT_ATTRIBUTE - 类 中的静态变量org.apache.hadoop.http.HttpServer
 
CONF_FILENAME_REGEX - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
 
CONF_GROUPS - 类 中的静态变量org.apache.hadoop.security.authorize.ProxyUsers
 
CONF_HADOOP_PROXYUSER - 类 中的静态变量org.apache.hadoop.security.authorize.ProxyUsers
 
CONF_HADOOP_PROXYUSER_RE - 类 中的静态变量org.apache.hadoop.security.authorize.ProxyUsers
 
CONF_LABEL_ATOMIC_COPY - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
Constants mapping to command line switches/input options
CONF_LABEL_BANDWIDTH_MB - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_COPY_LISTING_CLASS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_COPY_STRATEGY - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_DELETE_MISSING - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_DISTCP_JOB_ID - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
DistCp job id for consumers of the Disctp
CONF_LABEL_IGNORE_FAILURES - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_LISTING_FILE_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_LOG_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_MAX_MAPS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_META_FOLDER - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_OVERWRITE - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_PRESERVE_STATUS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_SKIP_CRC - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_SOURCE_LISTING - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_SSL_CONF - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_SSL_KEY_STORE_LOCATION - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
Conf label for SSL Key-store location.
CONF_LABEL_SSL_KEYSTORE - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_SSL_TRUST_STORE_LOCATION - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
Conf label for SSL Trust-store location.
CONF_LABEL_SYNC_FOLDERS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_TARGET_FINAL_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_TARGET_WORK_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_TOTAL_BYTES_TO_BE_COPIED - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_TOTAL_NUMBER_OF_RECORDS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
CONF_LABEL_WORK_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
config_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
CONFIG_PREFIX - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
Constant for the property that specifies the configuration prefix.
Configurable - org.apache.hadoop.conf中的接口
Something that may be configured with a Configuration.
Configuration - org.apache.hadoop.conf中的类
Provides access to configuration parameters.
Configuration() - 类 的构造器org.apache.hadoop.conf.Configuration
A new configuration.
Configuration(boolean) - 类 的构造器org.apache.hadoop.conf.Configuration
A new configuration where the behavior of reading from the default resources can be turned off.
Configuration(Configuration) - 类 的构造器org.apache.hadoop.conf.Configuration
A new configuration with the same settings cloned from another.
Configuration.IntegerRanges - org.apache.hadoop.conf中的类
A class that represents a set of positive integer ranges.
Configuration.IntegerRanges() - 类 的构造器org.apache.hadoop.conf.Configuration.IntegerRanges
 
Configuration.IntegerRanges(String) - 类 的构造器org.apache.hadoop.conf.Configuration.IntegerRanges
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdatePartitioner
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
 
configure(IndexUpdateConfiguration) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
Configure using an index update configuration.
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
Initializes a new instance from a JobConf.
configure(JobConf) - 类 中的方法org.apache.hadoop.examples.dancing.DistributedPentomino.PentMap
 
configure(JobConf) - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiReducer
Store job configuration.
configure(JobConf) - 类 中的方法org.apache.hadoop.examples.SleepJob
 
configure(JobConf) - 接口 中的方法org.apache.hadoop.mapred.JobConfigurable
Initializes a new instance from a JobConf.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.KeyValueTextInputFormat
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
Do nothing.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
get the input file name.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
Combiner does not need to configure.
configure(JobConf) - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
Configure the object
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.BinaryPartitioner
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.ChainMapper
Configures the ChainMapper and all the Mappers in the chain.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.ChainReducer
Configures the ChainReducer, the Reducer and all the Mappers in the chain.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
Initializes a new instance from a JobConf.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingMapper
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.HashPartitioner
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedComparator
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.MultithreadedMapRunner
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.RegexMapper
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
Read in the partition file and build indexing data structures.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.MapReduceBase
Default implementation that does nothing.
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.MapRunner
 
configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.TextInputFormat
 
configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.AutoInputFormat
 
configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.PipeMapper
 
configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
 
configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.PipeReducer
 
configure(JobConf) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogRegexMapper
 
Configured - org.apache.hadoop.conf中的类
Base class for things that may be configured with a Configuration.
Configured() - 类 的构造器org.apache.hadoop.conf.Configured
Construct a Configured.
Configured(Configuration) - 类 的构造器org.apache.hadoop.conf.Configured
Construct a Configured.
configureDB(JobConf, String, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBConfiguration
Sets the DB access related fields in the JobConf.
configureDB(JobConf, String, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBConfiguration
Sets the DB access related fields in the JobConf.
configureDB(Configuration, String, String, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Sets the DB access related fields in the Configuration.
configureDB(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Sets the DB access related fields in the JobConf.
ConfServlet - org.apache.hadoop.conf中的类
A servlet to print out the running configuration data.
ConfServlet() - 类 的构造器org.apache.hadoop.conf.ConfServlet
 
ConfServlet.BadFormatException - org.apache.hadoop.conf中的异常错误
 
ConfServlet.BadFormatException(String) - 异常错误 的构造器org.apache.hadoop.conf.ConfServlet.BadFormatException
 
connect(long, boolean) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
Connect to server with a data offset.
connect(Socket, SocketAddress, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
This is a drop-in replacement for Socket.connect(SocketAddress, int).
connect(Socket, SocketAddress, SocketAddress, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Like NetUtils.connect(Socket, SocketAddress, int) but also takes a local address and port to bind the socket to.
considerLoad - 类 中的变量org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
 
construct(ZlibCompressor.CompressionLevel, ZlibCompressor.CompressionStrategy, ZlibCompressor.CompressionHeader, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
constructQuery(String, String[]) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
Constructs the query used as the prepared statement to insert data.
constructQuery(String, String[]) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
Constructs the query used as the prepared statement to insert data.
Consts - org.apache.hadoop.record.compiler中的类
const definitions for Record I/O compiler
contains(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
Does this set contain an element corresponding to the given key?
contains(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
 
contains(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
contains(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Check if the tree contains node node
containsAll(AbstractMetricsContext.TagMap) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext.TagMap
已过时。
Returns true if this tagmap contains every tag in other.
containsKey(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
containsKey(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
containsValue(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
containsValue(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
CONTENT_LENGTH - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.StreamFile
 
ContentSummary - org.apache.hadoop.fs中的类
Store the summary of a content (a directory or a file).
ContentSummary() - 类 的构造器org.apache.hadoop.fs.ContentSummary
Constructor
ContentSummary(long, long, long) - 类 的构造器org.apache.hadoop.fs.ContentSummary
Constructor
ContentSummary(long, long, long, long, long, long) - 类 的构造器org.apache.hadoop.fs.ContentSummary
Constructor
ContentSummaryServlet - org.apache.hadoop.hdfs.server.namenode中的类
Servlets for file checksum
ContentSummaryServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.ContentSummaryServlet
 
context - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
context() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
context() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
Get the context name of the metrics
CONTEXT_DESC - 类 中的静态变量org.apache.hadoop.metrics2.lib.MetricsRegistry
description for the context tag
CONTEXT_KEY - 类 中的静态变量org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
CONTEXT_KEY - 类 中的静态变量org.apache.hadoop.metrics2.lib.MetricsRegistry
key for the context tag
ContextFactory - org.apache.hadoop.metrics中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
ContextFactory() - 类 的构造器org.apache.hadoop.metrics.ContextFactory
已过时。
Creates a new instance of ContextFactory
Contracts - org.apache.hadoop.metrics2.util中的类
Utilities for programming by contract (preconditions, postconditions etc.)
ControlledJob - org.apache.hadoop.mapreduce.lib.jobcontrol中的类
This class encapsulates a MapReduce job and its dependency.
ControlledJob(Job, List<ControlledJob>) - 类 的构造器org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Construct a job.
ControlledJob(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Construct a job.
ControlledJob.State - org.apache.hadoop.mapreduce.lib.jobcontrol中的枚举
 
convertToArrayLongs(Block[]) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
Converting a block[] to a long[]
convertToByteStream(Checksum, int) - 类 中的静态方法org.apache.hadoop.fs.FSOutputSummer
Converts a checksum integer value to a byte stream
COOKIE_DOMAIN - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
Constant for the configuration property that indicates the domain to use in the HTTP cookie.
COOKIE_PATH - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
Constant for the configuration property that indicates the path to use in the HTTP cookie.
copy(FileSystem, Path, FileSystem, Path, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Copy files between FileSystems.
copy(FileSystem, Path[], FileSystem, Path, boolean, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
 
copy(FileSystem, Path, FileSystem, Path, boolean, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Copy files between FileSystems.
copy(File, FileSystem, Path, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Copy local files to a FileSystem.
copy(FileSystem, Path, File, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Copy FileSystem files to local files.
copy(Writable) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
Used by child copy constructors.
copy(byte[], int, int) - 类 中的方法org.apache.hadoop.record.Buffer
Copy the specified byte array to the Buffer.
copy(Configuration, String, String, Path, boolean, boolean) - 类 中的静态方法org.apache.hadoop.tools.DistCp
已过时。
copy(Configuration, T, T) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
Make a copy of the writable object using serialization to a buffer
copyBytes(InputStream, OutputStream, int, boolean) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Copies from one stream to another.
copyBytes(InputStream, OutputStream, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Copies from one stream to another.
copyBytes(InputStream, OutputStream, Configuration) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Copies from one stream to another.
copyBytes(InputStream, OutputStream, Configuration, boolean) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Copies from one stream to another.
copyBytes(InputStream, OutputStream, long, int, boolean) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Copies the specified length of bytes from in to out.
CopyCommitter - org.apache.hadoop.tools.distcp2.mapred中的类
The CopyCommitter class is DistCp's OutputCommitter implementation.
CopyCommitter(Path, TaskAttemptContext) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.CopyCommitter
Create a output committer
copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
 
copyFromLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src file is on the local disk.
copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src file is on the local disk.
copyFromLocalFile(boolean, boolean, Path[], Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src files are on the local disk.
copyFromLocalFile(boolean, boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src file is on the local disk.
copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
The src file is on the local disk.
copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
not implemented.
copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
 
CopyListing - org.apache.hadoop.tools.distcp2中的类
The CopyListing abstraction is responsible for how the list of sources and targets is constructed, for DistCp's copy function.
CopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.CopyListing
Protected constructor, to initialize configuration.
CopyMapper - org.apache.hadoop.tools.distcp2.mapred中的类
Mapper class that executes the DistCp copy operation.
CopyMapper() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.CopyMapper
 
CopyMapper.Counter - org.apache.hadoop.tools.distcp2.mapred中的枚举
Hadoop counters for the DistCp CopyMapper.
copyMerge(FileSystem, Path, FileSystem, Path, boolean, Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Copy all files in a directory to one output file (merge).
CopyOutputFormat<K,V> - org.apache.hadoop.tools.distcp2.mapred中的类
The CopyOutputFormat is the Hadoop OutputFormat used in DistCp.
CopyOutputFormat() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
 
copyTo(SampleStat) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
Copy the values to other (saves object creation and gc.)
copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
The src file is under FS, and the dst is on the local disk.
copyToLocalFile(Path, Path, boolean) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
The src file is under FS, and the dst is on the local disk.
copyToLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src file is under FS, and the dst is on the local disk.
copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src file is under FS, and the dst is on the local disk.
copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
The src file is under FS, and the dst is on the local disk.
copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
copies the file in the har filesystem to a local file.
copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
 
CORRUPT_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
 
corruptPreUpgradeStorage(File) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
 
corruptPreUpgradeStorage(File) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
 
corruptPreUpgradeStorage(File) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
corruptReplicas - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
CorruptReplicasMap - org.apache.hadoop.hdfs.server.namenode中的类
Stores information about all corrupt blocks in the File System.
CorruptReplicasMap() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
 
Count - org.apache.hadoop.fs.shell中的类
Count the number of directories, files, bytes, quota, and remaining quota.
Count(String[], int, Configuration) - 类 的构造器org.apache.hadoop.fs.shell.Count
Constructor
count - 异常错误 中的变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
countCounters() - 类 中的方法org.apache.hadoop.mapreduce.Counters
Returns the total number of counters, by summing the number of counters in each group.
countDirs - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
 
countEmptyDirs - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
 
Counter - org.apache.hadoop.mapreduce中的类
A named counter that tracks the progress of a map/reduce job.
Counter() - 类 的构造器org.apache.hadoop.mapreduce.Counter
 
Counter(String, String) - 类 的构造器org.apache.hadoop.mapreduce.Counter
 
counter(MetricCounter<Integer>, int) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
Callback for integer value counters
counter(MetricCounter<Long>, long) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
Callback for long value counters
COUNTER_GROUP - 类 中的静态变量org.apache.hadoop.mapred.SkipBadRecords
Special counters which are written by the application and are used by the framework for detecting bad records.
COUNTER_MAP_PROCESSED_RECORDS - 类 中的静态变量org.apache.hadoop.mapred.SkipBadRecords
Number of processed map records.
COUNTER_REDUCE_PROCESSED_GROUPS - 类 中的静态变量org.apache.hadoop.mapred.SkipBadRecords
Number of processed reduce groups.
CounterGroup - org.apache.hadoop.mapreduce中的类
A group of Counters that logically belong together.
CounterGroup(String) - 类 的构造器org.apache.hadoop.mapreduce.CounterGroup
 
CounterGroup(String, String) - 类 的构造器org.apache.hadoop.mapreduce.CounterGroup
 
Counters - org.apache.hadoop.mapred中的类
A set of named counters.
Counters() - 类 的构造器org.apache.hadoop.mapred.Counters
 
Counters - org.apache.hadoop.mapreduce中的类
 
Counters() - 类 的构造器org.apache.hadoop.mapreduce.Counters
 
Counters(Counters) - 类 的构造器org.apache.hadoop.mapreduce.Counters
 
Counters.Counter - org.apache.hadoop.mapred中的类
A counter record, comprising its name and value.
Counters.CountersExceededException - org.apache.hadoop.mapred中的异常错误
Counter exception thrown when the number of counters exceed the limit
Counters.CountersExceededException(String) - 异常错误 的构造器org.apache.hadoop.mapred.Counters.CountersExceededException
 
Counters.Group - org.apache.hadoop.mapred中的类
Group of counters, comprising of counters from a particular counter Enum class.
countFilesMultLinks - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
 
CountingBloomFilter - org.apache.hadoop.util.bloom中的类
Implements a counting Bloom filter, as defined by Fan et al. in a ToN 2000 paper.
CountingBloomFilter() - 类 的构造器org.apache.hadoop.util.bloom.CountingBloomFilter
Default constructor - use with readFields
CountingBloomFilter(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.CountingBloomFilter
Constructor
countLease() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
 
countMapTasks() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the number of running map tasks.
countMultLinks - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
 
countNumOfAvailableNodes(String, Collection<Node>) - 类 中的方法org.apache.hadoop.net.NetworkTopology
return the number of leaves in scope but not in excludedNodes if scope starts with ~, return the number of nodes that are not in scope and excludedNodes;
countOccupiedMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the number of occupied map slots.
countOccupiedReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the number of occupied reduce slots.
countPhysicalFileCopies - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
 
countReduceTasks() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the number of running reduce tasks.
counts - 类 中的变量org.apache.hadoop.tools.rumen.JhCounterGroup
 
countSingleLinks - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
 
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
create(FileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
create a file with the provided permission The permission of the file is set to be the provided permission as in setPermission, not permission&~umask It is implemented using two RPCs.
create(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path.
create(Path, boolean) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path.
create(Path, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
Create an FSDataOutputStream at the indicated Path with write-progress reporting.
create(Path, short) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path.
create(Path, short, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
create(Path, boolean, int) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path.
create(Path, boolean, int, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
create(Path, boolean, int, short, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path.
create(Path, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
 
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
A stream obtained via this call must be closed before using other APIs of this class or else the invocation will block.
create(Path, int) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
create(Path, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
create(String, boolean) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Create a new dfs file and return an output stream for writing into it.
create(String, boolean, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Create a new dfs file and return an output stream for writing into it with write-progress reporting.
create(String, boolean, short, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Create a new dfs file with the specified block replication and return an output stream for writing into the file.
create(String, boolean, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Create a new dfs file with the specified block replication with write-progress reporting and return an output stream for writing into the file.
create(String, boolean, short, long, Progressable, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
create(String, FsPermission, boolean, short, long, Progressable, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
create(String, FsPermission, boolean, boolean, short, long, Progressable, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Create a new dfs file with the specified block replication with write-progress reporting and return an output stream for writing into the file.
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
create(String, FsPermission, String, boolean, boolean, short, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Create a new file entry in the namespace.
create(String, FsPermission, String, boolean, short, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Create a new file entry in the namespace.
create(Configuration, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
create(Configuration, String, MetricsSystem) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
create(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
create(Configuration, MetricsSystem) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
Create a v2 metrics instrumentation
create(String, FsPermission, String, boolean, short, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
已过时。
create(String, FsPermission, String, boolean, boolean, short, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Create a new file entry in the namespace.
create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
create(Class<?>, Object, RetryPolicy) - 类 中的静态方法org.apache.hadoop.io.retry.RetryProxy
Create a proxy for an interface of an implementation class using the same retry policy for each method in the interface.
create(Class<?>, Object, Map<String, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryProxy
Create a proxy for an interface of an implementation class using the a set of retry policies specified by method name.
create(Class<?>, Object, RetryPolicy, Map<String, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryProxy
 
create(String, int) - 类 中的静态方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Create an RPC instrumentation object
create(String, int, MetricsSystem) - 类 中的静态方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Create an RPC instrumentation object Mostly useful for testing.
create(String, String, MetricsSystem) - 类 中的静态方法org.apache.hadoop.metrics2.source.JvmMetricsSource
 
create(String, String) - 类 中的静态方法org.apache.hadoop.metrics2.source.JvmMetricsSource
 
CREATE_DIR - 类 中的静态变量org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
createAllSymlink(Configuration, File, File) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
已过时。
Internal to MapReduce framework. Use DistributedCacheManager instead.
createAllSymlink(Configuration, File, File) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
This method create symlinks for all files in a given dir in another directory.
createBaseListener(Configuration) - 类 中的方法org.apache.hadoop.http.HttpServer
Create a required listener for the Jetty instance listening on the port provided.
createCompressor() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
This functionality is currently not supported.
createCompressor() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Create a new Compressor for use by this CompressionCodec.
createCompressor() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
createCompressor() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
createCompressor() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Create a new Compressor for use by this CompressionCodec.
createCookie(String) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Creates the Hadoop authentiation HTTP cookie.
createCredentials(NameNode, UserGroupInformation, String) - 类 中的静态方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
A utility method for creating credentials.
createDataFileReader(FileSystem, Path, Configuration) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Override this method to specialize the type of SequenceFile.Reader returned.
createDataJoinJob(String[]) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
 
createDataNode(String[], Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Instantiate & Start a single datanode daemon and wait for it to finish.
createDataNode(String[], Configuration, SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Instantiate & Start a single datanode daemon and wait for it to finish.
createDBRecordReader(DBInputFormat.DBInputSplit, Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
 
createDBRecordReader(DBInputFormat.DBInputSplit, Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
 
createDBRecordReader(DBInputFormat.DBInputSplit, Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBInputFormat
 
createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
This functionality is currently not supported.
createDecompressor() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Create a new Decompressor for use by this CompressionCodec.
createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Create a new Decompressor for use by this CompressionCodec.
createDefaultChannelConnector() - 类 中的静态方法org.apache.hadoop.http.HttpServer
 
createEditLogFile(File) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
 
createFactory() - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
 
createFileSplit(Path, long, long) - 类 中的静态方法org.apache.hadoop.mapred.lib.NLineInputFormat
NLineInputFormat uses LineRecordReader, which always reads (and consumes) at least one character out of its upper split boundary.
createFileSplit(Path, long, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
NLineInputFormat uses LineRecordReader, which always reads (and consumes) at least one character out of its upper split boundary.
createForWrite(File, int) - 类 中的静态方法org.apache.hadoop.io.SecureIOUtils
Open the specified File for write access, ensuring that it does not exist.
createHardLink(File, File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
Creates a hardlink
createHardLinkMult(File, String[], File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
Creates hardlinks from multiple existing files within one parent directory, into one target directory.
createHardLinkMult(File, String[], File, int) - 类 中的静态方法org.apache.hadoop.fs.HardLink
 
createIdentifier() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Create an empty block token identifier
createIdentifier() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
 
createIdentifier() - 类 中的方法org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenSecretManager
 
createIdentifier() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Create an empty job token identifier
createIdentifier() - 类 中的方法org.apache.hadoop.security.token.SecretManager
Create an empty token identifier.
createImmutable(short) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
Create an immutable FsPermission object.
createImmutable(String, String, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.permission.PermissionStatus
Create an immutable PermissionStatus object.
createInputFileListing(Job) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
Create input listing by invoking an appropriate copy listing implementation.
createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
Creates CompressionInputStream to be used to read off uncompressed data.
createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
This functionality is currently not supported.
createInputStream(InputStream, Decompressor, long, long, SplittableCompressionCodec.READ_MODE) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
Creates CompressionInputStream to be used to read off uncompressed data in one of the two reading modes. i.e.
createInputStream(InputStream) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Create a stream decompressor that will read from the given input stream.
createInputStream(InputStream, Decompressor) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Create a CompressionInputStream that will read from the given InputStream with the given Decompressor.
createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Create a CompressionInputStream that will read from the given input stream.
createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Create a CompressionInputStream that will read from the given InputStream with the given Decompressor.
createInputStream(InputStream, Decompressor, long, long, SplittableCompressionCodec.READ_MODE) - 接口 中的方法org.apache.hadoop.io.compress.SplittableCompressionCodec
Create a stream as dictated by the readMode.
createInstance(String) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
Create an instance of the given class
createInterDataNodeProtocolProxy(DatanodeInfo, Configuration, int, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
createInternalValue() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Create a value to be used internally for joins.
createIOException(List<IOException>) - 异常错误 中的静态方法org.apache.hadoop.io.MultipleIOException
A convenient method to create an IOException.
createJob(String[]) - 类 中的静态方法org.apache.hadoop.streaming.StreamJob
This method creates a streaming job from the given argument list.
createJobDirs() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
Prepare the job directories for a given job.
createKey() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
 
createKey() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
 
createKey() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Create a new key value common to all child RRs.
createKey() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Request new key from proxied RR.
createKey() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
 
createKey() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
createKey() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
Create an object of the appropriate type to be used as a key.
createKey() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
 
createKey() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
Create an object of the appropriate type to be used as a key.
createKey() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
createKey() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
 
createKey() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
createKey() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
 
createLocalDirs() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
 
createLocalTempFile(File, String, boolean) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Create a tmp file for a base file.
createLogDir(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
 
createLogDir(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.TaskController
Creates task log dir
createNamenode(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
Create a NameNode proxy
createNamenode(InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
 
createNameNode(String[], Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
createNewFile(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Creates the given Path as a brand-new zero-length file.
createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
createNonRecursive(Path, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
API only for 0.20-append
createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
API only for 0.20-append
createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Opens an FSDataOutputStream at the indicated Path with write-progress reporting.
createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Same as create(), except fails if parent directory doesn't already exist.
createOutput(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
Creates CompressionOutputStream for BZip2
createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
Creates a compressor using given OutputStream.
createOutputStream(OutputStream) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Create a CompressionOutputStream that will write to the given OutputStream.
createOutputStream(OutputStream, Compressor) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Create a CompressionOutputStream that will write to the given OutputStream with the given Compressor.
createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Create a CompressionOutputStream that will write to the given OutputStream.
createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Create a CompressionOutputStream that will write to the given OutputStream with the given Compressor.
createPassword(BlockTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Create a new password/secret for the given block token identifier.
createPassword(JobTokenIdentifier) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Create a new password/secret for the given job token identifier.
createPassword(TokenIdent) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
 
createPassword(T) - 类 中的方法org.apache.hadoop.security.token.SecretManager
Create the password for the given identifier.
createPassword(byte[], SecretKey) - 类 中的静态方法org.apache.hadoop.security.token.SecretManager
Compute HMAC of the identifier using the secret key and return the output as password
createPool(JobConf, List<PathFilter>) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
Create a new pool and add the filters to it.
createPool(JobConf, PathFilter...) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
Create a new pool and add the filters to it.
createPool(List<PathFilter>) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
Create a new pool and add the filters to it.
createPool(PathFilter...) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
Create a new pool and add the filters to it.
createProxyUser(String, UserGroupInformation) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Create a proxy user using username of the effective user and the ugi of the real user.
createProxyUserForTesting(String, UserGroupInformation, String[]) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Create a proxy user UGI for testing HDFS and MapReduce
createRecord(String) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Creates a new MetricsRecord instance with the given recordName.
createRecord(MetricsContext, String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
已过时。
Utility method to create and return new metrics record instance within the given context.
createRecord(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Creates a new AbstractMetricsRecord instance with the given recordName.
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.InputFormat
Create a record reader for a given split.
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
Create a record reader for a given split.
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
This is not implemented yet.
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat
 
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat
 
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
 
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat
 
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextInputFormat
 
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
Create a record reader for the given split
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
 
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.TextInputFormat
 
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicInputFormat
Implementation of Inputformat::createRecordReader().
createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.UniformSizeInputFormat
Implementation of InputFormat::createRecordReader().
createRecoveryContext() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
createReduceContext(Reducer<INKEY, INVALUE, OUTKEY, OUTVALUE>, Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<OUTKEY, OUTVALUE>, OutputCommitter, StatusReporter, RawComparator<INKEY>, Class<INKEY>, Class<INVALUE>) - 类 中的静态方法org.apache.hadoop.mapred.Task
 
createRemoteUser(String) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Create a user from a login name.
createResetableIterator() - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
The subclass can provide a different implementation on ResetableIterator.
createRunner(TaskTracker, TaskTracker.TaskInProgress, TaskTracker.RunningJob) - 类 中的方法org.apache.hadoop.mapred.Task
Return an approprate thread runner for this task.
createScanner() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get a scanner than can scan the whole TFile.
createScanner(byte[], byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
createScanner(RawComparable, RawComparable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
createScannerByByteRange(long, long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get a scanner that covers a portion of TFile based on byte offsets.
createScannerByKey(byte[], byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get a scanner that covers a portion of TFile based on keys.
createScannerByKey(RawComparable, RawComparable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get a scanner that covers a specific key range.
createScannerByRecordNum(long, long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Create a scanner that covers a range of records.
createSecretKey(byte[]) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Convert the byte[] to a secret key
createSecretKey(byte[]) - 类 中的静态方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Convert the byte[] to a secret key
createSecretKey(byte[]) - 类 中的静态方法org.apache.hadoop.security.token.SecretManager
Convert the byte[] to a secret key
createSocket() - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
createSocket(InetAddress, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
createSocket(InetAddress, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
createSocket(String, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
createSocket(String, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
createSocket() - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
 
createSocket(InetAddress, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
 
createSocket(InetAddress, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
 
createSocket(String, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
 
createSocket(String, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
 
createSocketAddr(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
已过时。
createSocketAddr(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Util method to build socket addr from either: : ://:/
createSocketAddr(String, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Util method to build socket addr from either: : ://:/
createSplitFiles(Path, Configuration, FileSystem, List<InputSplit>) - 类 中的静态方法org.apache.hadoop.mapreduce.split.JobSplitWriter
 
createSplitFiles(Path, Configuration, FileSystem, T[]) - 类 中的静态方法org.apache.hadoop.mapreduce.split.JobSplitWriter
 
createSplitFiles(Path, Configuration, FileSystem, InputSplit[]) - 类 中的静态方法org.apache.hadoop.mapreduce.split.JobSplitWriter
 
createSymlink(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
This method allows you to create symlinks in the current working directory of the task to all the cache files/archives.
createTaskAttemptLogDir(TaskAttemptID, boolean, String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Create log directory for the given attempt.
createTitle(JspWriter, HttpServletRequest, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
createTmpFileForWrite(String, long, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
Creates a temporary file in the local FS.
createUri(String, InetSocketAddress) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
Create a URI from the scheme and address
createUri(String, HdfsFileStatus, UserGroupInformation, ClientProtocol, HttpServletRequest, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FileDataServlet
Create a redirection URI
createURLStreamHandler(String) - 类 中的方法org.apache.hadoop.fs.FsUrlStreamHandlerFactory
 
createUserDirs() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
Initialize the local directories for a particular user on this TT.
createUserForTesting(String, String[]) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Create a UGI for testing HDFS and MapReduce
createValue() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
 
createValue() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
 
createValue() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader
Create an object of the appropriate type to be used as a value.
createValue() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
Create an object of the appropriate type to be used as a value.
createValue() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Request new value from proxied RR.
createValue() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
 
createValue() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
createValue() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
Create an object of the appropriate type to be used as a value.
createValue() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
 
createValue() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
Create an object of the appropriate type to be used as a value.
createValue() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
createValue() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
 
createValue() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
createValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
已过时。 
createValue() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
 
createValueAggregatorJob(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
Create an Aggregate based map/reduce job.
createValueAggregatorJob(String[], Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
Create an Aggregate based map/reduce job.
createValueAggregatorJob(String[], Class<? extends ValueAggregatorDescriptor>[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
 
createValueAggregatorJob(String[], Class<? extends ValueAggregatorDescriptor>[], Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
 
createValueAggregatorJobs(String[], Class<? extends ValueAggregatorDescriptor>[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
 
createValueAggregatorJobs(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
 
createValueBytes() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
 
createWorkDir(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
 
createWriter(FileSystem, Configuration, Path, Class, Class) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, Progressable) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, CompressionCodec, Progressable, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(FileSystem, Configuration, Path, Class, Class, int, short, long, SequenceFile.CompressionType, CompressionCodec, Progressable, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(FileSystem, Configuration, Path, Class, Class, int, short, long, boolean, SequenceFile.CompressionType, CompressionCodec, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of SequenceFile Writer.
createWriter(Configuration, FSDataOutputStream, Class, Class, SequenceFile.CompressionType, CompressionCodec, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of 'raw' SequenceFile Writer.
createWriter(Configuration, FSDataOutputStream, Class, Class, SequenceFile.CompressionType, CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
Construct the preferred type of 'raw' SequenceFile Writer.
credentials - 类 中的变量org.apache.hadoop.mapreduce.JobContext
 
Credentials - org.apache.hadoop.security中的类
A class that provides the facilities of reading and writing secret keys and Tokens.
Credentials() - 类 的构造器org.apache.hadoop.security.Credentials
 
CSTRING_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
CsvRecordInput - org.apache.hadoop.record中的类
 
CsvRecordInput(InputStream) - 类 的构造器org.apache.hadoop.record.CsvRecordInput
Creates a new instance of CsvRecordInput
CsvRecordOutput - org.apache.hadoop.record中的类
 
CsvRecordOutput(OutputStream) - 类 的构造器org.apache.hadoop.record.CsvRecordOutput
Creates a new instance of CsvRecordOutput
cTime - 类 中的变量org.apache.hadoop.hdfs.server.common.StorageInfo
 
CUR_DIR - 类 中的静态变量org.apache.hadoop.fs.Path
 
curChar - 类 中的变量org.apache.hadoop.record.compiler.generated.RccTokenManager
 
curReader - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
curReader - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
current() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
 
CURRENT_CONF - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.JspHelper
 
CURRENT_VERSION - 类 中的静态变量org.apache.hadoop.ipc.Server
 
currentConfig() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
currentConfig() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
currentConfig() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
 
currentId - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Access to currentId is protected by this object lock.
currentPos - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
 
currentToken - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
This is the last token that has been consumed successfully.
currentTokens - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Cache of currently valid tokens, mapping from DelegationTokenIdentifier to DelegationTokenInformation.
currentUpgrades - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeManager
 
customize(EndPoint, Request) - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
 
CyclicIteration<K,V> - org.apache.hadoop.util中的类
Provide an cyclic Iterator for a NavigableMap.
CyclicIteration(NavigableMap<K, V>, K) - 类 的构造器org.apache.hadoop.util.CyclicIteration
Construct an Iterable object, so that an Iterator can be created for iterating the given NavigableMap.

D

Daemon - org.apache.hadoop.util中的类
A thread that has called Thread.setDaemon(boolean) with true.
Daemon() - 类 的构造器org.apache.hadoop.util.Daemon
Construct a daemon thread.
Daemon(Runnable) - 类 的构造器org.apache.hadoop.util.Daemon
Construct a daemon thread.
Daemon(ThreadGroup, Runnable) - 类 的构造器org.apache.hadoop.util.Daemon
Construct a daemon thread to be part of a specified thread group.
DancingLinks<ColumnName> - org.apache.hadoop.examples.dancing中的类
A generic solver for tile laying problems using Knuth's dancing link algorithm.
DancingLinks() - 类 的构造器org.apache.hadoop.examples.dancing.DancingLinks
 
DancingLinks.SolutionAcceptor<ColumnName> - org.apache.hadoop.examples.dancing中的接口
Applications should implement this to receive the solutions to their problems.
data - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
DATA_DIR_KEY - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
DATA_DIR_PERMISSION_KEY - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
DATA_FIELD_SEPERATOR - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
DATA_FILE_NAME - 类 中的静态变量org.apache.hadoop.io.MapFile
The name of the data file.
DATA_TRANSFER_VERSION - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
Version for data transfers between clients and datanodes This should change when serialization of DatanodeInfo, not just when protocol changes.
DataChecksum - org.apache.hadoop.util中的类
This class provides inteface and utilities for processing checksums for DFS data transfers.
DataDrivenDBInputFormat<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A InputFormat that reads input data from an SQL table.
DataDrivenDBInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
 
DataDrivenDBInputFormat.DataDrivenDBInputSplit - org.apache.hadoop.mapreduce.lib.db中的类
A InputSplit that spans a set of rows
DataDrivenDBInputFormat.DataDrivenDBInputSplit() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
Default Constructor
DataDrivenDBInputFormat.DataDrivenDBInputSplit(String, String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
Convenience Constructor
DataDrivenDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A RecordReader that reads records from a SQL table, using data-driven WHERE clause splits.
DataDrivenDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String, String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DataDrivenDBRecordReader
 
datagramSocket - 类 中的变量org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
DataInputBuffer - org.apache.hadoop.io中的类
A reusable DataInput implementation that reads from an in-memory buffer.
DataInputBuffer() - 类 的构造器org.apache.hadoop.io.DataInputBuffer
Constructs a new empty buffer.
DataJoinJob - org.apache.hadoop.contrib.utils.join中的类
This class implements the main function for creating a map/reduce job to join data of different sources.
DataJoinJob() - 类 的构造器org.apache.hadoop.contrib.utils.join.DataJoinJob
 
DataJoinMapperBase - org.apache.hadoop.contrib.utils.join中的类
This abstract class serves as the base class for the mapper class of a data join job.
DataJoinMapperBase() - 类 的构造器org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
DataJoinReducerBase - org.apache.hadoop.contrib.utils.join中的类
This abstract class serves as the base class for the reducer class of a data join job.
DataJoinReducerBase() - 类 的构造器org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
DataNode - org.apache.hadoop.hdfs.server.datanode中的类
DataNode is a class (and program) that stores a set of blocks for a DFS deployment.
DatanodeCommand - org.apache.hadoop.hdfs.server.protocol中的类
 
DatanodeCommand() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
 
DatanodeDescriptor - org.apache.hadoop.hdfs.server.namenode中的类
DatanodeDescriptor tracks stats on a given DataNode, such as available storage capacity, last update time, etc., and maintains a set of blocks stored on the datanode.
DatanodeDescriptor() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
Default constructor
DatanodeDescriptor(DatanodeID) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
DatanodeDescriptor constructor
DatanodeDescriptor(DatanodeID, String) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
DatanodeDescriptor constructor
DatanodeDescriptor(DatanodeID, String, String) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
DatanodeDescriptor constructor
DatanodeDescriptor(DatanodeID, long, long, long, int) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
DatanodeDescriptor constructor
DatanodeDescriptor(DatanodeID, String, String, long, long, long, int) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
DatanodeDescriptor constructor
DatanodeDescriptor.BlockTargetPair - org.apache.hadoop.hdfs.server.namenode中的类
Block and targets pair
DatanodeID - org.apache.hadoop.hdfs.protocol中的类
DatanodeID is composed of the data node name (hostname:portNumber) and the data storage ID, which it currently represents.
DatanodeID() - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeID
Equivalent to DatanodeID("").
DatanodeID(String) - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeID
Equivalent to DatanodeID(nodeName, "", -1, -1).
DatanodeID(DatanodeID) - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeID
DatanodeID copy constructor
DatanodeID(String, String, int, int) - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeID
Create DatanodeID
DatanodeInfo - org.apache.hadoop.hdfs.protocol中的类
DatanodeInfo represents the status of a DataNode.
DatanodeInfo() - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
DatanodeInfo(DatanodeInfo) - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
DatanodeInfo(DatanodeID) - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
DatanodeInfo(DatanodeID, String, String) - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
DatanodeInfo(String, String, int, int, long, long, long, long, int, String, String, DatanodeInfo.AdminStates) - 类 的构造器org.apache.hadoop.hdfs.protocol.DatanodeInfo
Constructor
DatanodeInfo.AdminStates - org.apache.hadoop.hdfs.protocol中的枚举
 
DataNodeInstrumentation - org.apache.hadoop.hdfs.server.datanode.metrics中的类
 
DataNodeInstrumentation(Configuration, String) - 类 的构造器org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
DataNodeMXBean - org.apache.hadoop.hdfs.server.datanode中的接口
This is the JMX management interface for data node information
DatanodeProtocol - org.apache.hadoop.hdfs.server.protocol中的接口
Protocol that a DFS datanode uses to communicate with the NameNode.
DatanodeRegistration - org.apache.hadoop.hdfs.server.protocol中的类
DatanodeRegistration class conatins all information the Namenode needs to identify and verify a Datanode when it contacts the Namenode.
DatanodeRegistration() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
Default constructor.
DatanodeRegistration(String) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
Create DatanodeRegistration
datanodeReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
datanodeReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
DatanodeWebHdfsMethods - org.apache.hadoop.hdfs.server.datanode.web.resources中的类
Web-hdfs DataNode implementation.
DatanodeWebHdfsMethods() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
 
DataOutputBuffer - org.apache.hadoop.io中的类
A reusable DataOutput implementation that writes to an in-memory buffer.
DataOutputBuffer() - 类 的构造器org.apache.hadoop.io.DataOutputBuffer
Constructs a new empty buffer.
DataOutputBuffer(int) - 类 的构造器org.apache.hadoop.io.DataOutputBuffer
 
DataStorage - org.apache.hadoop.hdfs.server.datanode中的类
Data storage information file.
DataStorage(StorageInfo, String) - 类 的构造器org.apache.hadoop.hdfs.server.datanode.DataStorage
 
DataTransferProtocol - org.apache.hadoop.hdfs.protocol中的接口
The Client transfers data to/from datanode using a streaming protocol.
DataTransferProtocol.PipelineAck - org.apache.hadoop.hdfs.protocol中的类
reply
DataTransferProtocol.PipelineAck() - 类 的构造器org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
default constructor
DataTransferProtocol.PipelineAck(long, short[]) - 类 的构造器org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
Constructor
DataTransferThrottler - org.apache.hadoop.hdfs.util中的类
a class to throttle the data transfers.
DataTransferThrottler(long) - 类 的构造器org.apache.hadoop.hdfs.util.DataTransferThrottler
Constructor
DataTransferThrottler(long, long) - 类 的构造器org.apache.hadoop.hdfs.util.DataTransferThrottler
Constructor
dateForm - 类 中的静态变量org.apache.hadoop.fs.FsShell
 
DateSplitter - org.apache.hadoop.mapreduce.lib.db中的类
Implement DBSplitter over date/time values.
DateSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DateSplitter
 
dateToString(Date) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DateSplitter
Given a Date 'd', format it as a string for use in a SQL date comparison operation.
dateToString(Date) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDateSplitter
 
DBConfiguration - org.apache.hadoop.mapred.lib.db中的类
A container for configuration property names for jobs with DB input/output.
DBConfiguration - org.apache.hadoop.mapreduce.lib.db中的类
A container for configuration property names for jobs with DB input/output.
DBConfiguration(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
DBCountPageView - org.apache.hadoop.examples中的类
This is a demonstrative program, which uses DBInputFormat for reading the input data from a database, and DBOutputFormat for writing the data to the database.
DBCountPageView() - 类 的构造器org.apache.hadoop.examples.DBCountPageView
 
DBInputFormat<T extends DBWritable> - org.apache.hadoop.mapred.lib.db中的类
A InputFormat that reads input data from an SQL table.
DBInputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.db.DBInputFormat
 
DBInputFormat<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A InputFormat that reads input data from an SQL table.
DBInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBInputFormat
 
DBInputFormat.DBInputSplit - org.apache.hadoop.mapred.lib.db中的类
A InputSplit that spans a set of rows
DBInputFormat.DBInputSplit() - 类 的构造器org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
Default Constructor
DBInputFormat.DBInputSplit(long, long) - 类 的构造器org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
Convenience Constructor
DBInputFormat.DBInputSplit - org.apache.hadoop.mapreduce.lib.db中的类
A InputSplit that spans a set of rows
DBInputFormat.DBInputSplit() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
Default Constructor
DBInputFormat.DBInputSplit(long, long) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
Convenience Constructor
DBInputFormat.DBRecordReader - org.apache.hadoop.mapred.lib.db中的类
A RecordReader that reads records from a SQL table.
DBInputFormat.DBRecordReader(DBInputFormat.DBInputSplit, Class<T>, JobConf) - 类 的构造器org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
 
DBInputFormat.NullDBWritable - org.apache.hadoop.mapred.lib.db中的类
A Class that does nothing, implementing DBWritable
DBInputFormat.NullDBWritable() - 类 的构造器org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
 
DBInputFormat.NullDBWritable - org.apache.hadoop.mapreduce.lib.db中的类
A Class that does nothing, implementing DBWritable
DBInputFormat.NullDBWritable() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
 
DBOutputFormat<K extends DBWritable,V> - org.apache.hadoop.mapred.lib.db中的类
A OutputFormat that sends the reduce output to a SQL table.
DBOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.db.DBOutputFormat
 
DBOutputFormat<K extends DBWritable,V> - org.apache.hadoop.mapreduce.lib.db中的类
A OutputFormat that sends the reduce output to a SQL table.
DBOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
 
DBOutputFormat.DBRecordWriter - org.apache.hadoop.mapred.lib.db中的类
A RecordWriter that writes the reduce output to a SQL table
DBOutputFormat.DBRecordWriter(Connection, PreparedStatement) - 类 的构造器org.apache.hadoop.mapred.lib.db.DBOutputFormat.DBRecordWriter
 
DBOutputFormat.DBRecordWriter - org.apache.hadoop.mapreduce.lib.db中的类
A RecordWriter that writes the reduce output to a SQL table
DBOutputFormat.DBRecordWriter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
 
DBOutputFormat.DBRecordWriter(Connection, PreparedStatement) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
 
DBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A RecordReader that reads records from a SQL table.
DBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
DBSplitter - org.apache.hadoop.mapreduce.lib.db中的接口
DBSplitter will generate DBInputSplits to use with DataDrivenDBInputFormat.
DBWritable - org.apache.hadoop.mapred.lib.db中的接口
Objects that are read from/written to a database should implement DBWritable.
DBWritable - org.apache.hadoop.mapreduce.lib.db中的接口
Objects that are read from/written to a database should implement DBWritable.
debug_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
debugStream - 类 中的变量org.apache.hadoop.record.compiler.generated.RccTokenManager
 
decDfsUsed(long) - 类 中的方法org.apache.hadoop.fs.DU
Decrease how much disk space we use.
decLevel() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.DepthCounter
 
decode(byte[]) - 类 中的静态方法org.apache.hadoop.io.Text
Converts the provided byte array to a String using the UTF-8 encoding.
decode(byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.Text
 
decode(byte[], int, int, boolean) - 类 中的静态方法org.apache.hadoop.io.Text
Converts the provided byte array to a String using the UTF-8 encoding.
decodeFromUrlString(String) - 类 中的方法org.apache.hadoop.security.token.Token
Decode the given url safe string into this token.
decodeJobHistoryFileName(String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Helper function to decode the URL of the filename of the job-history log file.
decodeVIntSize(byte) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Parse the first byte of a vint/vlong to determine the number of bytes
decompress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.BlockDecompressorStream
 
decompress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
decompress(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Fills specified buffer with uncompressed data.
decompress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
decompress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Fills specified buffer with uncompressed data.
decompress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Decompress the data (gzip header, deflate stream, gzip trailer) in the provided buffer.
decompress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInZlibInflater
 
decompress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
Decompressor - org.apache.hadoop.io.compress中的接口
Specification of a stream-based 'de-compressor' which can be plugged into a CompressionInputStream to compress data.
decompressor - 类 中的变量org.apache.hadoop.io.compress.DecompressorStream
 
DecompressorStream - org.apache.hadoop.io.compress中的类
 
DecompressorStream(InputStream, Decompressor, int) - 类 的构造器org.apache.hadoop.io.compress.DecompressorStream
 
DecompressorStream(InputStream, Decompressor) - 类 的构造器org.apache.hadoop.io.compress.DecompressorStream
 
DecompressorStream(InputStream) - 类 的构造器org.apache.hadoop.io.compress.DecompressorStream
Allow derived classes to directly set the underlying stream.
decr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGauge
Decrement the value of the metric by 1
decr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
 
decr(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
decrement by delta
decr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
 
decr(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
decrement by delta
decr(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Decrement a metric by name.
decr(String, MetricMutableFactory) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Decrement a metric by name.
DeepCompare - org.apache.hadoop.tools.rumen中的接口
Classes that implement this interface can deep-compare [for equality only, not order] with another instance.
deepCompare(DeepCompare, TreePath) - 接口 中的方法org.apache.hadoop.tools.rumen.DeepCompare
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedLocation
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
deepCompare(DeepCompare, TreePath) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
 
DeepInequalityException - org.apache.hadoop.tools.rumen中的异常错误
We use this exception class in the unit test, and we do a deep comparison when we run the
DeepInequalityException(String, TreePath, Throwable) - 异常错误 的构造器org.apache.hadoop.tools.rumen.DeepInequalityException
 
DeepInequalityException(String, TreePath) - 异常错误 的构造器org.apache.hadoop.tools.rumen.DeepInequalityException
 
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.AccessTimeParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.BlockSizeParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.BufferSizeParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
 
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DelegationParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DestinationParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DoAsParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.GroupParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.HttpOpParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.LengthParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OffsetParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OverwriteParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OwnerParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.PermissionParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.RecursiveParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.RenewerParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ReplicationParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
Default parameter value.
DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.UserParam
Default parameter value.
DEFAULT - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
DEFAULT_BANDWIDTH_MB - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
DEFAULT_BLOCK_SIZE - 类 中的静态变量org.apache.hadoop.fs.ftp.FTPFileSystem
 
DEFAULT_BLOCK_SIZE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
DEFAULT_BUFFER_SIZE - 类 中的静态变量org.apache.hadoop.fs.ftp.FTPFileSystem
 
DEFAULT_CONTEXT - 类 中的静态变量org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
DEFAULT_DATA_SOCKET_SIZE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
DEFAULT_DMAX - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
DEFAULT_HADOOP_JETTY_LOGS_SERVE_ALIASES - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
DEFAULT_HOST_LEVEL - 类 中的静态变量org.apache.hadoop.net.NetworkTopology
 
DEFAULT_INITIAL_MAP_CAPACITY - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
DEFAULT_MAP_LOAD_FACTOR - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
DEFAULT_MAPRED_TASK_JAVA_OPTS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
DEFAULT_MAPREDUCE_RECOVER_JOB - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
DEFAULT_MAPS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
DEFAULT_MR_COMBINE_RECORDS_BEFORE_PROGRESS - 类 中的静态变量org.apache.hadoop.mapred.Task
 
DEFAULT_NODEGROUP - 类 中的静态变量org.apache.hadoop.net.NetworkTopologyWithNodeGroup
 
DEFAULT_PATH - 类 中的静态变量org.apache.hadoop.mapred.lib.TotalOrderPartitioner
 
DEFAULT_PATH - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
 
DEFAULT_PERIOD - 接口 中的静态变量org.apache.hadoop.metrics.MetricsContext
已过时。
Default period in seconds at which data is sent to the metrics system.
DEFAULT_POLICY_PROVIDER - 类 中的静态变量org.apache.hadoop.security.authorize.PolicyProvider
A default PolicyProvider without any defined services.
DEFAULT_PORT - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NameNode
 
DEFAULT_PORT - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
DEFAULT_QUEUE_NAME - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Name of the queue to which jobs will be submitted, if no queue name is mentioned.
DEFAULT_RACK - 类 中的静态变量org.apache.hadoop.net.NetworkTopology
 
DEFAULT_SLOPE - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
DEFAULT_TMAX - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
DEFAULT_UMASK - 类 中的静态变量org.apache.hadoop.fs.permission.FsPermission
 
DEFAULT_UNITS - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
DefaultCodec - org.apache.hadoop.io.compress中的类
 
DefaultCodec() - 类 的构造器org.apache.hadoop.io.compress.DefaultCodec
 
defaultContexts - 类 中的变量org.apache.hadoop.http.HttpServer
 
DefaultInputDemuxer - org.apache.hadoop.tools.rumen中的类
DefaultInputDemuxer acts as a pass-through demuxer.
DefaultInputDemuxer() - 类 的构造器org.apache.hadoop.tools.rumen.DefaultInputDemuxer
 
DefaultJobHistoryParser - org.apache.hadoop.mapred中的类
Default parser for job history files.
DefaultJobHistoryParser() - 类 的构造器org.apache.hadoop.mapred.DefaultJobHistoryParser
 
DefaultMetricsSystem - org.apache.hadoop.metrics2.lib中的枚举
The default metrics system singleton
DefaultOutputter<T> - org.apache.hadoop.tools.rumen中的类
The default Outputter that outputs to a plain file.
DefaultOutputter() - 类 的构造器org.apache.hadoop.tools.rumen.DefaultOutputter
 
DefaultStringifier<T> - org.apache.hadoop.io中的类
DefaultStringifier is the default implementation of the Stringifier interface which stringifies the objects using base64 encoding of the serialized version of the objects.
DefaultStringifier(Configuration, Class<T>) - 类 的构造器org.apache.hadoop.io.DefaultStringifier
 
DefaultTaskController - org.apache.hadoop.mapred中的类
The default implementation for controlling tasks.
DefaultTaskController() - 类 的构造器org.apache.hadoop.mapred.DefaultTaskController
 
define(Class, WritableComparator) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Register an optimized comparator for a WritableComparable implementation.
define(Class, RecordComparator) - 类 中的静态方法org.apache.hadoop.record.RecordComparator
Register an optimized comparator for a Record implementation.
defineFilter(Context, String, String, Map<String, String>, String[]) - 类 中的方法org.apache.hadoop.http.HttpServer
Define a filter for a context and set up default url mappings.
DelegatingInputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
An InputFormat that delegates behaviour of paths to multiple other InputFormats.
DelegatingInputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.DelegatingInputFormat
 
DelegatingInputFormat<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
An InputFormat that delegates behavior of paths to multiple other InputFormats.
DelegatingInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat
 
DelegatingMapper<K1,V1,K2,V2> - org.apache.hadoop.mapred.lib中的类
An Mapper that delegates behaviour of paths to multiple other mappers.
DelegatingMapper() - 类 的构造器org.apache.hadoop.mapred.lib.DelegatingMapper
 
DelegatingMapper<K1,V1,K2,V2> - org.apache.hadoop.mapreduce.lib.input中的类
An Mapper that delegates behavior of paths to multiple other mappers.
DelegatingMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.DelegatingMapper
 
DelegatingRecordReader<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
This is a delegating RecordReader, which delegates the functionality to the underlying record reader in TaggedInputSplit
DelegatingRecordReader(InputSplit, TaskAttemptContext) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
Constructs the DelegatingRecordReader.
DELEGATION_KEY_UPDATE_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
DELEGATION_KEY_UPDATE_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
DELEGATION_PARAMETER_NAME - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.JspHelper
 
DELEGATION_TOKEN_MAX_LIFETIME_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
DELEGATION_TOKEN_MAX_LIFETIME_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
DELEGATION_TOKEN_RENEW_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
DELEGATION_TOKEN_RENEW_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
DelegationKey - org.apache.hadoop.security.token.delegation中的类
Key used for generating and verifying delegation tokens
DelegationKey() - 类 的构造器org.apache.hadoop.security.token.delegation.DelegationKey
 
DelegationKey(int, long, SecretKey) - 类 的构造器org.apache.hadoop.security.token.delegation.DelegationKey
 
DelegationParam - org.apache.hadoop.hdfs.web.resources中的类
Represents delegation token used for authentication.
DelegationParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.DelegationParam
Constructor.
DelegationTokenFetcher - org.apache.hadoop.hdfs.tools中的类
Fetch a DelegationToken from the current Namenode and store it in the specified file.
DelegationTokenFetcher() - 类 的构造器org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
 
DelegationTokenIdentifier - org.apache.hadoop.hdfs.security.token.delegation中的类
A delegation token identifier that is specific to HDFS.
DelegationTokenIdentifier() - 类 的构造器org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenIdentifier
Create an empty delegation token identifier for reading into.
DelegationTokenIdentifier(Text, Text, Text) - 类 的构造器org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenIdentifier
Create a new delegation token identifier
DelegationTokenIdentifier - org.apache.hadoop.mapreduce.security.token.delegation中的类
A delegation token identifier that is specific to MapReduce.
DelegationTokenIdentifier() - 类 的构造器org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenIdentifier
Create an empty delegation token identifier for reading into.
DelegationTokenIdentifier(Text, Text, Text) - 类 的构造器org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenIdentifier
Create a new delegation token identifier
DelegationTokenRenewal - org.apache.hadoop.mapreduce.security.token中的类
 
DelegationTokenRenewal() - 类 的构造器org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
 
DelegationTokenRenewer<T extends FileSystem & DelegationTokenRenewer.Renewable> - org.apache.hadoop.hdfs.security.token.delegation中的类
A daemon thread that waits for the next file system to renew.
DelegationTokenRenewer(Class<T>) - 类 的构造器org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
 
DelegationTokenRenewer.Renewable - org.apache.hadoop.hdfs.security.token.delegation中的接口
The renewable interface used by the renewer.
DelegationTokenSecretManager - org.apache.hadoop.hdfs.security.token.delegation中的类
A HDFS specific delegation token secret manager.
DelegationTokenSecretManager(long, long, long, long, FSNamesystem) - 类 的构造器org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Create a secret manager
DelegationTokenSecretManager - org.apache.hadoop.mapreduce.security.token.delegation中的类
A MapReduce specific delegation token secret manager.
DelegationTokenSecretManager(long, long, long, long) - 类 的构造器org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenSecretManager
Create a secret manager
DelegationTokenSelector - org.apache.hadoop.hdfs.security.token.delegation中的类
A delegation token that is specialized for HDFS
DelegationTokenSelector() - 类 的构造器org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSelector
 
DelegationTokenSelector - org.apache.hadoop.mapreduce.security.token.delegation中的类
A delegation token that is specialized for MapReduce
DelegationTokenSelector() - 类 的构造器org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenSelector
 
delegationTokenSequenceNumber - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Sequence number to create DelegationTokenIdentifier.
DELETE - 类 中的静态变量org.apache.hadoop.contrib.index.mapred.DocumentAndOp.Op
 
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Implement the delete(Path, boolean) in checksum file system.
delete(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
Use delete(Path, boolean) instead
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.FileSystem
Delete a file.
delete(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
已过时。
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Delete a file
delete(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
已过时。
Use delete(Path, boolean) instead
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
Not implemented.
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
delete(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
delete(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
已过时。
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
delete(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
已过时。
delete(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
已过时。
delete(Path, boolean) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
delete(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
已过时。
delete(String, boolean) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
delete file or directory.
delete(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
已过时。
delete(Path, boolean) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
requires a boolean check to delete a non empty directory recursively.
delete(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
已过时。
delete(Path, boolean) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
delete(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Delete the given file or directory from the file system.
delete(String, boolean) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Delete the given file or directory from the file system.
delete(String, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Remove the indicated filename from namespace.
delete(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
已过时。
delete(String, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Delete the given file or directory from the file system.
delete(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, DeleteOpParam, RecursiveParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP DELETE request.
delete(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
delete(Path, boolean) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
delete(FileSystem, String) - 类 中的静态方法org.apache.hadoop.io.BloomMapFile
 
delete(FileSystem, String) - 类 中的静态方法org.apache.hadoop.io.MapFile
Deletes the named map file.
delete(Key) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
Removes a specified key from this counting Bloom filter.
deleteAsUser(String, String) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
Delete the user's files under all of the task tracker root directories.
deleteAsUser(String, String) - 类 中的方法org.apache.hadoop.mapred.TaskController
Delete the user's files under all of the task tracker root directories.
deleteBlock(Block) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
deleteCacheInfoUpdate(TrackerDistributedCacheManager.CacheStatus) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.BaseDirManager
Decrement the size and sub directory count of the cache from baseDirSize and baseDirNumberSubDir.
deleteDir(File) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
 
deleteFile(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
deleteINode(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
DeleteJobEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
This is an UserLogEvent sent when job logs should be deleted.
DeleteJobEvent(JobID) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.DeleteJobEvent
Create the event to delete job log directory.
deleteJobLogs(JobID) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
 
deleteLocalFiles() - 类 中的方法org.apache.hadoop.mapred.JobConf
 
deleteLocalFiles(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
 
deleteLogAsUser(String, String) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
Delete the user's files under the userlogs directory.
deleteLogAsUser(String, String) - 类 中的方法org.apache.hadoop.mapred.TaskController
Delete the user's files under the userlogs directory.
deleteOnExit(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Mark a path to be deleted when FileSystem is closed.
DeleteOpParam - org.apache.hadoop.hdfs.web.resources中的类
Http DELETE operation parameter.
DeleteOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.DeleteOpParam
Constructor.
DeleteOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
Delete operations.
deleteRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, DeleteOpParam, RecursiveParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP DELETE request for the root.
deleteTermIterator() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
Get an iterator for the delete terms in the intermediate form.
DEPENDENT_FAILED - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
 
DEPRECATED_UMASK_LABEL - 类 中的静态变量org.apache.hadoop.fs.permission.FsPermission
umask property label
depth() - 类 中的方法org.apache.hadoop.fs.Path
Return the number of elements in this path.
DEPTH_THRESH - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
DepthCounter - org.apache.hadoop.hdfs.tools.offlineImageViewer中的类
Utility class for tracking descent into the structure of the Visitor class (ImageVisitor, EditsVisitor etc.)
DepthCounter() - 类 的构造器org.apache.hadoop.hdfs.tools.offlineImageViewer.DepthCounter
 
DESCRIPTION - 类 中的静态变量org.apache.hadoop.fs.shell.Count
 
description - 类 中的变量org.apache.hadoop.metrics2.lib.MetricMutable
description of the metric
description() - 类 中的方法org.apache.hadoop.metrics2.Metric
Get the description of the metric
description() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
Get the description of the tag
description - 类 中的变量org.apache.hadoop.tools.distcp2.util.RetriableCommand
 
deserialize(InputStream) - 类 中的静态方法org.apache.hadoop.fs.s3.INode
 
deserialize(T) - 接口 中的方法org.apache.hadoop.io.serializer.Deserializer
Deserialize the next object from the underlying input stream.
deserialize(RecordInput, String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
Deserialize the type information for a record
deserialize(RecordInput, String) - 类 中的方法org.apache.hadoop.record.Record
Deserialize a record with a tag (usually field name)
deserialize(RecordInput) - 类 中的方法org.apache.hadoop.record.Record
Deserialize a record without a tag
Deserializer<T> - org.apache.hadoop.io.serializer中的接口
Provides a facility for deserializing objects of type from an InputStream.
DeserializerComparator<T> - org.apache.hadoop.io.serializer中的类
A RawComparator that uses a Deserializer to deserialize the objects to be compared so that the standard Comparator can be used to compare them.
DeserializerComparator(Deserializer<T>) - 类 的构造器org.apache.hadoop.io.serializer.DeserializerComparator
 
desiredMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
desiredReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
desiredTasks() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return total number of map and reduce tasks desired by the job.
DeskewedJobTraceReader - org.apache.hadoop.tools.rumen中的类
 
DeskewedJobTraceReader(JobTraceReader, int, boolean) - 类 的构造器org.apache.hadoop.tools.rumen.DeskewedJobTraceReader
Constructor.
DeskewedJobTraceReader(JobTraceReader) - 类 的构造器org.apache.hadoop.tools.rumen.DeskewedJobTraceReader
 
DestinationParam - org.apache.hadoop.hdfs.web.resources中的类
Destination path parameter.
DestinationParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.DestinationParam
Constructor.
destroy() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
 
destroy() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter
 
destroy() - 类 中的方法org.apache.hadoop.http.lib.StaticUserWebFilter.StaticUserFilter
 
destroy() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Destroys the filter.
destroy() - 接口 中的方法org.apache.hadoop.security.authentication.server.AuthenticationHandler
Destroys the authentication handler instance.
destroy() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Releases any resources initialized by the authentication handler.
destroy() - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
Releases any resources initialized by the authentication handler.
destroy() - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.Krb5SslFilter
 
detachBlock(Block, int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Make a copy of the block if this block is linked to an existing snapshot.
detailed() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
 
detailedUsage_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
determineTimestampsAndCacheVisibilities(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Determines timestamps of files to be cached, and stores those in the configuration.
DF - org.apache.hadoop.fs中的类
Filesystem disk space usage statistics.
DF(File, Configuration) - 类 的构造器org.apache.hadoop.fs.DF
 
DF(File, long) - 类 的构造器org.apache.hadoop.fs.DF
 
df - 类 中的静态变量org.apache.hadoop.hdfs.HftpFileSystem
 
df - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.ListPathsServlet
 
DF_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.DF
Default DF refresh interval.
dfmt(double) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
DFS_ADMIN - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BALANCER_MOVEDWINWIDTH_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BALANCER_MOVEDWINWIDTH_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_ACCESS_KEY_UPDATE_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_ACCESS_KEY_UPDATE_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_ACCESS_TOKEN_ENABLE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_ACCESS_TOKEN_ENABLE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_ACCESS_TOKEN_LIFETIME_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_ACCESS_TOKEN_LIFETIME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_INVALIDATE_LIMIT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_INVALIDATE_LIMIT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_LOCAL_PATH_ACCESS_USER_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_SIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCK_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCKREPORT_INITIAL_DELAY_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCKREPORT_INITIAL_DELAY_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCKREPORT_INTERVAL_MSEC_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BLOCKREPORT_INTERVAL_MSEC_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BYTES_PER_CHECKSUM_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_BYTES_PER_CHECKSUM_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_BLOCK_WRITE_LOCATEFOLLOWINGBLOCK_RETRIES_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_BLOCK_WRITE_LOCATEFOLLOWINGBLOCK_RETRIES_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_BLOCK_WRITE_RETRIES_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_BLOCK_WRITE_RETRIES_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_HTTPS_KEYSTORE_RESOURCE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_HTTPS_KEYSTORE_RESOURCE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_HTTPS_NEED_AUTH_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_HTTPS_NEED_AUTH_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_LOCAL_INTERFACES - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_MAX_BLOCK_ACQUIRE_FAILURES_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_MAX_BLOCK_ACQUIRE_FAILURES_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_READ_PREFETCH_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_READ_SHORTCIRCUIT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_READ_SHORTCIRCUIT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_READ_SHORTCIRCUIT_SKIP_CHECKSUM_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_READ_SHORTCIRCUIT_SKIP_CHECKSUM_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_RETRY_POLICY_ENABLED_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_RETRY_POLICY_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_RETRY_POLICY_SPEC_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_RETRY_POLICY_SPEC_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_SOCKET_TIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_USE_DN_HOSTNAME - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_USE_DN_HOSTNAME_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_WRITE_PACKET_SIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_CLIENT_WRITE_PACKET_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_BALANCE_BANDWIDTHPERSEC_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_BALANCE_BANDWIDTHPERSEC_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DATA_DIR_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DIRECTORYSCAN_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DIRECTORYSCAN_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DNS_INTERFACE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DNS_INTERFACE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DNS_NAMESERVER_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DNS_NAMESERVER_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DROP_CACHE_BEHIND_READS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DROP_CACHE_BEHIND_READS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DROP_CACHE_BEHIND_WRITES_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DROP_CACHE_BEHIND_WRITES_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DU_RESERVED_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_DU_RESERVED_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_HANDLER_COUNT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_HANDLER_COUNT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_HOST_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_HTTP_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_HTTP_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_HTTPS_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_HTTPS_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_IPC_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_IPC_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_KEYTAB_FILE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_MAX_XCIEVERS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_MAX_XCIEVERS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_NUMBLOCKS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_NUMBLOCKS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_PLUGINS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_READAHEAD_BYTES_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_READAHEAD_BYTES_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SCAN_PERIOD_HOURS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SCAN_PERIOD_HOURS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SIMULATEDDATASTORAGE_CAPACITY_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SIMULATEDDATASTORAGE_CAPACITY_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SIMULATEDDATASTORAGE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SIMULATEDDATASTORAGE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SOCKET_WRITE_TIMEOUT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_STARTUP_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_STORAGEID_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SYNC_BEHIND_WRITES_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SYNC_BEHIND_WRITES_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SYNCONCLOSE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_SYNCONCLOSE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_TRANSFERTO_ALLOWED_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_TRANSFERTO_ALLOWED_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_USE_DN_HOSTNAME - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_USE_DN_HOSTNAME_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DATANODE_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DEFAULT_CHUNK_VIEW_SIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DEFAULT_CHUNK_VIEW_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DF_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_DF_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_HEARTBEAT_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_HEARTBEAT_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_HTTPS_ENABLE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_HTTPS_ENABLE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_IMAGE_TRANSFER_RATE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_IMAGE_TRANSFER_RATE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_LIST_LIMIT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_LIST_LIMIT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_MAX_CORRUPT_FILES_RETURNED_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_MAX_CORRUPT_FILES_RETURNED_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_METRICS_SESSION_ID_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_ACCESSTIME_PRECISION_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_ACCESSTIME_PRECISION_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_AVOID_STALE_DATANODE_FOR_READ_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_AVOID_STALE_DATANODE_FOR_READ_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_AVOID_STALE_DATANODE_FOR_WRITE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_AVOID_STALE_DATANODE_FOR_WRITE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_BACKUP_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_BACKUP_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_BACKUP_HTTP_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_BACKUP_HTTP_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_BACKUP_SERVICE_RPC_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_CHECKPOINT_DIR_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_CHECKPOINT_EDITS_DIR_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_CHECKPOINT_PERIOD_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_CHECKPOINT_PERIOD_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_CHECKPOINT_SIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_CHECKPOINT_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DECOMMISSION_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DECOMMISSION_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DECOMMISSION_NODES_PER_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DECOMMISSION_NODES_PER_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_KEY_UPDATE_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_KEY_UPDATE_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_TOKEN_ALWAYS_USE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_TOKEN_ALWAYS_USE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_TOKEN_MAX_LIFETIME_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_TOKEN_MAX_LIFETIME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_TOKEN_RENEW_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_DELEGATION_TOKEN_RENEW_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_EDITS_DIR_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_EDITS_TOLERATION_LENGTH_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_EDITS_TOLERATION_LENGTH_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HANDLER_COUNT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HANDLER_COUNT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HEARTBEAT_RECHECK_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HEARTBEAT_RECHECK_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HOSTS_EXCLUDE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HOSTS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTP_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTP_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTP_PORT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTP_PORT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTPS_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTPS_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTPS_PORT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_HTTPS_PORT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_INTERNAL_SPENGO_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_INVALIDATE_WORK_PCT_PER_ITERATION - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_INVALIDATE_WORK_PCT_PER_ITERATION_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_KEYTAB_FILE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_KRB_HTTPS_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_MAX_OBJECTS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_MAX_OBJECTS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_NAME_CACHE_THRESHOLD_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_NAME_CACHE_THRESHOLD_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_NAME_DIR_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_NAME_DIR_RESTORE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_NAME_DIR_RESTORE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_PLUGINS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_CONSIDERLOAD_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_CONSIDERLOAD_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_MAX_STREAMS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_MAX_STREAMS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_MIN_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_MIN_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_PENDING_TIMEOUT_SEC_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_PENDING_TIMEOUT_SEC_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_WORK_MULTIPLIER_PER_ITERATION - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_REPLICATION_WORK_MULTIPLIER_PER_ITERATION_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_RPC_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SAFEMODE_EXTENSION_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SAFEMODE_EXTENSION_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SAFEMODE_MIN_DATANODES_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SAFEMODE_MIN_DATANODES_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SAFEMODE_THRESHOLD_PCT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SAFEMODE_THRESHOLD_PCT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SECONDARY_HTTP_ADDRESS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SECONDARY_HTTP_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SERVICE_HANDLER_COUNT_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SERVICE_HANDLER_COUNT_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_SERVICE_RPC_ADDRESS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_STALE_DATANODE_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_STALE_DATANODE_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_STALE_DATANODE_MINIMUM_INTERVAL_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_STALE_DATANODE_MINIMUM_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_STARTUP_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_UPGRADE_PERMISSION_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_UPGRADE_PERMISSION_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_USE_STALE_DATANODE_FOR_WRITE_RATIO_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_USE_STALE_DATANODE_FOR_WRITE_RATIO_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_NAMENODE_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_PERMISSIONS_ENABLED_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_PERMISSIONS_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_PERMISSIONS_SUPERUSERGROUP_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_PERMISSIONS_SUPERUSERGROUP_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_PERSIST_BLOCKS_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_PERSIST_BLOCKS_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_REPLICATION_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_REPLICATION_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_REPLICATION_MAX_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_REPLICATION_MAX_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_SECONDARY_NAMENODE_INTERNAL_SPENGO_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_SECONDARY_NAMENODE_KEYTAB_FILE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_SECONDARY_NAMENODE_KRB_HTTPS_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_SECONDARY_NAMENODE_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_SERVER_HTTPS_KEYSTORE_RESOURCE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_SERVER_HTTPS_KEYSTORE_RESOURCE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_STREAM_BUFFER_SIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_STREAM_BUFFER_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_WEB_AUTHENTICATION_KERBEROS_KEYTAB_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_WEB_AUTHENTICATION_KERBEROS_PRINCIPAL_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_WEB_UGI_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_WEBHDFS_ENABLED_DEFAULT - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFS_WEBHDFS_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.hdfs.DFSConfigKeys
 
DFSAdmin - org.apache.hadoop.hdfs.tools中的类
This class provides some DFS administrative access.
DFSAdmin() - 类 的构造器org.apache.hadoop.hdfs.tools.DFSAdmin
Construct a DFSAdmin object.
DFSAdmin(Configuration) - 类 的构造器org.apache.hadoop.hdfs.tools.DFSAdmin
Construct a DFSAdmin object.
DFSck - org.apache.hadoop.hdfs.tools中的类
This class provides rudimentary checking of DFS volumes for errors and sub-optimal conditions.
DFSck(Configuration) - 类 的构造器org.apache.hadoop.hdfs.tools.DFSck
Filesystem checker.
DFSClient - org.apache.hadoop.hdfs中的类
DFSClient can connect to a Hadoop Filesystem and perform basic file tasks.
DFSClient(Configuration) - 类 的构造器org.apache.hadoop.hdfs.DFSClient
Same as this(NameNode.getAddress(conf), conf);
DFSClient(InetSocketAddress, Configuration) - 类 的构造器org.apache.hadoop.hdfs.DFSClient
Same as this(nameNodeAddr, conf, null);
DFSClient(InetSocketAddress, Configuration, FileSystem.Statistics) - 类 的构造器org.apache.hadoop.hdfs.DFSClient
Same as this(nameNodeAddr, null, conf, stats);
DFSClient.DFSDataInputStream - org.apache.hadoop.hdfs中的类
The Hdfs implementation of FSDataInputStream
DFSClient.DFSDataInputStream(DFSClient.DFSInputStream) - 类 的构造器org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
 
DFSClient.DFSInputStream - org.apache.hadoop.hdfs中的类
DFSInputStream provides bytes from a named file.
DFSClient.RemoteBlockReader - org.apache.hadoop.hdfs中的类
This is a wrapper around connection to datadone and understands checksum, offset etc
DFSClient.RemoteBlockReader(Path, int, DataChecksum, boolean) - 类 的构造器org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
DFSClient.Renewer - org.apache.hadoop.hdfs中的类
 
DFSClient.Renewer() - 类 的构造器org.apache.hadoop.hdfs.DFSClient.Renewer
 
DFSConfigKeys - org.apache.hadoop.hdfs中的类
This class contains constants for configuration keys used in hdfs.
DFSConfigKeys() - 类 的构造器org.apache.hadoop.hdfs.DFSConfigKeys
 
DFSNodesStatus(ArrayList<DatanodeDescriptor>, ArrayList<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
DFSNodesStatus(ArrayList<DatanodeDescriptor>, ArrayList<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
dfsUsed - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
DFSUtil - org.apache.hadoop.hdfs中的类
 
DFSUtil() - 类 的构造器org.apache.hadoop.hdfs.DFSUtil
 
DFSUtil.StaleComparator - org.apache.hadoop.hdfs中的类
Comparator for sorting DataNodeInfo[] based on stale states.
DFSUtil.StaleComparator(long) - 类 的构造器org.apache.hadoop.hdfs.DFSUtil.StaleComparator
Constructor of StaleComparator
digest(byte[]) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
Construct a hash value for a byte array.
digest(InputStream) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
Construct a hash value for the content from the InputStream.
digest(byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
Construct a hash value for a byte array.
digest(String) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
Construct a hash value for a String.
digest(UTF8) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
Construct a hash value for a String.
dir - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
DIR_FORMATS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.MultipleInputs
 
DIR_MAPPERS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.MultipleInputs
 
DIRECTORY_INODE - 类 中的静态变量org.apache.hadoop.fs.s3.INode
 
DirectoryListing - org.apache.hadoop.hdfs.protocol中的类
This class defines a partial listing of a directory to support iterative directory listing.
DirectoryListing() - 类 的构造器org.apache.hadoop.hdfs.protocol.DirectoryListing
default constructor
DirectoryListing(HdfsFileStatus[], int) - 类 的构造器org.apache.hadoop.hdfs.protocol.DirectoryListing
constructor
dirIterator() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
Return default iterator This iterator returns all entires of storageDirs
dirIterator(Storage.StorageDirType) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
Return iterator based on Storage Directory Type This iterator selects entires of storageDirs of type dirType and returns them via the Iterator
disable_tracing() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
DISABLED_MEMORY_LIMIT - 类 中的静态变量org.apache.hadoop.mapred.JobConf
A value which if set for memory related configuration options, indicates that the options are turned off.
DisallowedDatanodeException - org.apache.hadoop.hdfs.server.protocol中的异常错误
This exception is thrown when a datanode tries to register or communicate with the namenode when it does not appear on the list of included nodes, or has been specifically excluded.
DisallowedDatanodeException(DatanodeID) - 异常错误 的构造器org.apache.hadoop.hdfs.server.protocol.DisallowedDatanodeException
 
DISK_ERROR - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DiskChecker - org.apache.hadoop.util中的类
Class that provides utility functions for checking disk problem
DiskChecker() - 类 的构造器org.apache.hadoop.util.DiskChecker
 
DiskChecker.DiskErrorException - org.apache.hadoop.util中的异常错误
 
DiskChecker.DiskErrorException(String) - 异常错误 的构造器org.apache.hadoop.util.DiskChecker.DiskErrorException
 
DiskChecker.DiskOutOfSpaceException - org.apache.hadoop.util中的异常错误
 
DiskChecker.DiskOutOfSpaceException(String) - 异常错误 的构造器org.apache.hadoop.util.DiskChecker.DiskOutOfSpaceException
 
displayByteArray(byte[]) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
displayName - 类 中的变量org.apache.hadoop.tools.rumen.JhCounter
 
displayName - 类 中的变量org.apache.hadoop.tools.rumen.JhCounterGroup
 
displayTasks(JobID, String, String) - 类 中的方法org.apache.hadoop.mapred.JobClient
Display the information about a job's tasks, of a particular type and in a particular state
dispose() - 类 中的方法org.apache.hadoop.security.SaslRpcClient
Release resources used by wrapped saslClient
distance(Node, Node) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
distance(Node, Node) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Determine the distance between two Nodes.
DistCh - org.apache.hadoop.tools中的类
A Map-reduce program to recursively change files properties such as owner, group and permission.
DistCp - org.apache.hadoop.tools中的类
A Map-reduce program to recursively copy directories between different file-systems.
DistCp(Configuration) - 类 的构造器org.apache.hadoop.tools.DistCp
 
DistCp - org.apache.hadoop.tools.distcp2中的类
DistCp is the main driver-class for DistCpV2.
DistCp(Configuration, DistCpOptions) - 类 的构造器org.apache.hadoop.tools.distcp2.DistCp
Public Constructor.
DistCp.DuplicationException - org.apache.hadoop.tools中的异常错误
An exception class for duplicated source files.
DistCpConstants - org.apache.hadoop.tools.distcp2中的类
Utility class to hold commonly used constants.
DistCpConstants() - 类 的构造器org.apache.hadoop.tools.distcp2.DistCpConstants
 
DistCpOptions - org.apache.hadoop.tools.distcp2中的类
The Options class encapsulates all DistCp options.
DistCpOptions(List<Path>, Path) - 类 的构造器org.apache.hadoop.tools.distcp2.DistCpOptions
Constructor, to initialize source/target paths.
DistCpOptions(Path, Path) - 类 的构造器org.apache.hadoop.tools.distcp2.DistCpOptions
Constructor, to initialize source/target paths.
DistCpOptions(DistCpOptions) - 类 的构造器org.apache.hadoop.tools.distcp2.DistCpOptions
Copy constructor.
DistCpOptions.FileAttribute - org.apache.hadoop.tools.distcp2中的枚举
 
DistCpOptionSwitch - org.apache.hadoop.tools.distcp2中的枚举
Enumeration mapping configuration keys to distcp command line options.
DistCpUtils - org.apache.hadoop.tools.distcp2.util中的类
Utility functions used in DistCp.
DistCpUtils() - 类 的构造器org.apache.hadoop.tools.distcp2.util.DistCpUtils
 
DistributedCache - org.apache.hadoop.filecache中的类
Distribute application-specific large, read-only files efficiently.
DistributedCache() - 类 的构造器org.apache.hadoop.filecache.DistributedCache
 
DistributedFileSystem - org.apache.hadoop.hdfs中的类
Implementation of the abstract FileSystem for the DFS system.
DistributedFileSystem() - 类 的构造器org.apache.hadoop.hdfs.DistributedFileSystem
 
DistributedFileSystem(InetSocketAddress, Configuration) - 类 的构造器org.apache.hadoop.hdfs.DistributedFileSystem
已过时。 
DistributedFileSystem.DiskStatus - org.apache.hadoop.hdfs中的类
 
DistributedFileSystem.DiskStatus(long, long, long) - 类 的构造器org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
 
DistributedPentomino - org.apache.hadoop.examples.dancing中的类
Launch a distributed pentomino solver.
DistributedPentomino() - 类 的构造器org.apache.hadoop.examples.dancing.DistributedPentomino
 
DistributedPentomino.PentMap - org.apache.hadoop.examples.dancing中的类
Each map takes a line, which represents a prefix move and finds all of the solutions that start with that prefix.
DistributedPentomino.PentMap() - 类 的构造器org.apache.hadoop.examples.dancing.DistributedPentomino.PentMap
 
distributedUpgradeProgress(FSConstants.UpgradeAction) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
 
distributedUpgradeProgress(FSConstants.UpgradeAction) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
distributedUpgradeProgress(FSConstants.UpgradeAction) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
distributedUpgradeProgress(FSConstants.UpgradeAction) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Report distributed upgrade progress or force current upgrade to proceed.
distributedUpgradeProgress(FSConstants.UpgradeAction) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
DN_CLIENTTRACE_FORMAT - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
DNA_ACCESSKEYUPDATE - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_BALANCERBANDWIDTHUPDATE - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_FINALIZE - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_INVALIDATE - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_RECOVERBLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_REGISTER - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_SHUTDOWN - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_TRANSFER - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
DNA_UNKNOWN - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
Determines actions that data node should perform when receiving a datanode command.
dnRegistration - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
DNS - org.apache.hadoop.net中的类
A class that provides direct and reverse lookup functionalities, allowing the querying of specific network interfaces or nameservers.
DNS() - 类 的构造器org.apache.hadoop.net.DNS
 
DNSToSwitchMapping - org.apache.hadoop.net中的接口
An interface that should be implemented to allow pluggable DNS-name/IP-address to RackID resolvers.
doAbort() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
 
doAnalyze(String, String, String, String, String) - 类 中的方法org.apache.hadoop.tools.Logalyzer
doAnalyze:
doArchive(String, String) - 类 中的方法org.apache.hadoop.tools.Logalyzer
doArchive: Workhorse function to archive log-files.
doAs(PrivilegedAction<T>) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Run the given action as the user.
doAs(PrivilegedExceptionAction<T>) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Run the given action as the user, potentially throwing an exception.
DoAsParam - org.apache.hadoop.hdfs.web.resources中的类
DoAs parameter for proxy user.
DoAsParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.DoAsParam
Constructor.
doBuildListing(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
The interface to be implemented by sub-classes, to create the source/target file listing.
doBuildListing(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
Implementation of CopyListing::buildListing().
doBuildListing(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
Implementation of CopyListing::buildListing().
doBuildListing(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
The interface to be implemented by sub-classes, to create the source/target file listing.
DocumentAndOp - org.apache.hadoop.contrib.index.mapred中的类
This class represents an indexing operation.
DocumentAndOp() - 类 的构造器org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Constructor for no operation.
DocumentAndOp(DocumentAndOp.Op, Document) - 类 的构造器org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Constructor for an insert operation.
DocumentAndOp(DocumentAndOp.Op, Term) - 类 的构造器org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Constructor for a delete operation.
DocumentAndOp(DocumentAndOp.Op, Document, Term) - 类 的构造器org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Constructor for an insert, a delete or an update operation.
DocumentAndOp.Op - org.apache.hadoop.contrib.index.mapred中的类
This class represents the type of an operation - an insert, a delete or an update.
DocumentID - org.apache.hadoop.contrib.index.mapred中的类
The class represents a document id, which is of type text.
DocumentID() - 类 的构造器org.apache.hadoop.contrib.index.mapred.DocumentID
Constructor.
doExecute(Object...) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.RetriableDirectoryCreateCommand
Implementation of RetriableCommand::doExecute().
doExecute(Object...) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand
Implementation of RetriableCommand::doExecute().
doExecute(Object...) - 类 中的方法org.apache.hadoop.tools.distcp2.util.RetriableCommand
Implement this interface-method define the command-logic that will be retried on failure (i.e. with Exception).
doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.hdfs.web.AuthFilter
 
doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter
 
doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.http.lib.StaticUserWebFilter.StaticUserFilter
 
doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
If the request has a valid authentication token it allows the request to continue to the target resource, otherwise it triggers an authentication sequence using the configured AuthenticationHandler.
doFilter(ServletRequest, ServletResponse, FilterChain) - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.Krb5SslFilter
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.conf.ConfServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CancelDelegationTokenServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.ContentSummaryServlet
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FileChecksumServlets.GetServlet
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FileChecksumServlets.RedirectServlet
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FileDataServlet
Service a GET request as described below.
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FsckServlet
Handle fsck request
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.GetImageServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.ListPathsServlet
Service a GET request as described below.
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.StreamFile
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.http.AdminAuthorizedServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.http.HttpServer.StackServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.jmx.JMXJsonServlet
Process a GET request for the specified resource.
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.log.LogLevel.Servlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.mapred.RawHistoryFileServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.mapred.TaskGraphServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.mapred.TaskLogServlet
Get the logs via http.
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.mapred.TaskTracker.MapOutputServlet
 
doGet(HttpServletRequest, HttpServletResponse) - 类 中的方法org.apache.hadoop.metrics.MetricsServlet
已过时。
 
DONE - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
 
done(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
 
done(TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
The task is done.
done(TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report that the task is successfully completed.
done() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
Implementations of TryIterator.tryNext() must call this method when there are no more elements left in the iteration.
Done() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
done() - 接口 中的方法org.apache.hadoop.record.Index
 
DONEDIR_FS - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
 
DoNotPool - org.apache.hadoop.io.compress中的注释类型
This is a marker annotation that marks a compressor or decompressor type as not to be pooled.
doRecover(Storage.StorageState) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Complete or recover storage state from previously failed transition.
doSync() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
Do the sync checks
DOT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
DOUBLE - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
DOUBLE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
DOUBLE_VALUE_SUM - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
DoubleTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
 
DoubleValueSum - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that sums up a sequence of double values.
DoubleValueSum() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
The default constructor
DoubleWritable - org.apache.hadoop.io中的类
Writable for Double values.
DoubleWritable() - 类 的构造器org.apache.hadoop.io.DoubleWritable
 
DoubleWritable(double) - 类 的构造器org.apache.hadoop.io.DoubleWritable
 
DoubleWritable.Comparator - org.apache.hadoop.io中的类
A Comparator optimized for DoubleWritable.
DoubleWritable.Comparator() - 类 的构造器org.apache.hadoop.io.DoubleWritable.Comparator
 
doUpdates(MetricsContext) - 类 中的方法org.apache.hadoop.metrics.jvm.JvmMetrics
已过时。
This will be called periodically (with the period being configuration dependent).
doUpdates(MetricsContext) - 接口 中的方法org.apache.hadoop.metrics.Updater
已过时。
Timer-based call-back from the metric library.
doUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
Specifies how the upgrade is performed.
downgrade(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobID
Downgrade a new JobID to an old one
downgrade(TaskAttemptID) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
Downgrade a new TaskAttemptID to an old one
downgrade(TaskID) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
Downgrade a new TaskID to an old one
downloadCacheObject(Configuration, URI, Path, long, boolean, FsPermission) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Download a given path to the local file system.
downloadPrivateCache(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.JobLocalizer
Download the parts of the distributed cache that are private.
doWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
 
driver(String[]) - 类 中的静态方法org.apache.hadoop.record.compiler.generated.Rcc
 
driver(String[]) - 类 中的方法org.apache.hadoop.util.ProgramDriver
This is a driver for the example programs.
DRIVER_CLASS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
The JDBC Driver class name
DRIVER_CLASS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
The JDBC Driver class name
DSQuotaExceededException - org.apache.hadoop.hdfs.protocol中的异常错误
 
DSQuotaExceededException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
 
DSQuotaExceededException(long, long) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
 
DT_SELECTOR - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
Token selector
DU - org.apache.hadoop.fs中的类
Filesystem disk space usage statistics.
DU(File, long) - 类 的构造器org.apache.hadoop.fs.DU
Keeps track of disk usage.
DU(File, Configuration) - 类 的构造器org.apache.hadoop.fs.DU
Keeps track of disk usage.
DUMMY_KEYS - 类 中的静态变量org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
DUMMY_TOKEN - 类 中的静态变量org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
 
dump() - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
Diagnostic method to dump all INodes to the console.
dumpConfiguration(Configuration, Writer) - 类 中的静态方法org.apache.hadoop.conf.Configuration
Writes out all the parameters and their properties (final and resource) to the given Writer The format of the output would be { "properties" : [ {key1,value1,key1.isFinal,key1.resource}, {key2,value2, key2.isFinal,key2.resource}... ] } It does not output the parameters of the configuration object which is loaded from an input stream.
dumpDatanode() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
A formatted string for printing the status of the DataNode.
DumpTypedBytes - org.apache.hadoop.streaming中的类
Utility program that fetches all files that match a given pattern and dumps their content to stdout as typed bytes.
DumpTypedBytes(Configuration) - 类 的构造器org.apache.hadoop.streaming.DumpTypedBytes
 
DumpTypedBytes() - 类 的构造器org.apache.hadoop.streaming.DumpTypedBytes
 
DUPLICATE_INPUT - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
DynamicBloomFilter - org.apache.hadoop.util.bloom中的类
Implements a dynamic Bloom filter, as defined in the INFOCOM 2006 paper.
DynamicBloomFilter() - 类 的构造器org.apache.hadoop.util.bloom.DynamicBloomFilter
Zero-args constructor for the serialization.
DynamicBloomFilter(int, int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.DynamicBloomFilter
Constructor.
DynamicInputFormat<K,V> - org.apache.hadoop.tools.distcp2.mapred.lib中的类
DynamicInputFormat implements the "Worker pattern" for DistCp.
DynamicInputFormat() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.lib.DynamicInputFormat
 
DynamicRecordReader<K,V> - org.apache.hadoop.tools.distcp2.mapred.lib中的类
The DynamicRecordReader is used in conjunction with the DynamicInputFormat to implement the "Worker pattern" for DistCp.
DynamicRecordReader() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
 

E

editLog - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSImage
 
editLogLoaderPrompt(String, MetaRecoveryContext) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
 
emit(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
For each tuple emitted, return a value (typically one of the values in the tuple).
emit(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.OverrideRecordReader
Emit the value with the highest position in the tuple.
emitMetric(String, String, String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
emitMetric(String, String, String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext31
 
emitMetric(String, String, String, String, GangliaConf, AbstractGangliaSink.GangliaSlope) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
The method sends metrics to Ganglia servers.
emitMetric(String, String, String, String, GangliaConf, AbstractGangliaSink.GangliaSlope) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31
The method sends metrics to Ganglia servers.
emitRecord(String, String, OutputRecord) - 类 中的方法org.apache.hadoop.metrics.file.FileContext
已过时。
Emits a metrics record to a file.
emitRecord(String, String, OutputRecord) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
emitRecord(String, String, OutputRecord) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Sends a record to the metrics system.
emitRecord(String, String, OutputRecord) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
emitRecord(String, String, OutputRecord) - 类 中的方法org.apache.hadoop.metrics.spi.NoEmitMetricsContext
已过时。
Do-nothing version of emitRecord
emitRecord(String, String, OutputRecord) - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
已过时。
Do-nothing version of emitRecord
emitRecord(String, String, OutputRecord) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
已过时。
Do-nothing version of emitRecord
emitToGangliaHosts() - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
Sends Ganglia Metrics to the configured hosts
EMPTY_ARRAY - 类 中的静态变量org.apache.hadoop.hdfs.protocol.DatanodeID
 
EMPTY_ARRAY - 类 中的静态变量org.apache.hadoop.mapred.TaskCompletionEvent
 
EMPTY_DEL_HINT - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
EMPTY_NAME - 类 中的静态变量org.apache.hadoop.hdfs.protocol.HdfsFileStatus
 
EMPTY_TASK_SPLIT - 类 中的静态变量org.apache.hadoop.mapreduce.split.JobSplit
 
emptyText - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
enable_tracing() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
encode(String) - 类 中的静态方法org.apache.hadoop.io.Text
Converts the provided String to bytes using the UTF-8 encoding.
encode(String, boolean) - 类 中的静态方法org.apache.hadoop.io.Text
Converts the provided String to bytes using the UTF-8 encoding.
encodeJobHistoryFileName(String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Helper function to encode the URL of the filename of the job-history log file.
encodeJobHistoryFilePath(String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Helper function to encode the URL of the path of the job-history log file.
encodeToUrlString() - 类 中的方法org.apache.hadoop.security.token.Token
Encode this token as a url safe string
end() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
end() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
end() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Closes the compressor and discards any unprocessed input.
end() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Closes the decompressor and discards any unprocessed input.
end() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Closes the compressor and discards any unprocessed input.
end() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Resets decompressor and input and output buffers so that a new set of input data can be processed.
end() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Closes the decompressor and discards any unprocessed input.
end() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
end() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
END_OF_BLOCK - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
End of a BZip2 block
END_OF_STREAM - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
End of BZip2 stream.
endColumn - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
beginLine and beginColumn describe the position of the first character of this token; endLine and endColumn describe the position of the last character of this token.
endCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
 
endLine - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
beginLine and beginColumn describe the position of the first character of this token; endLine and endColumn describe the position of the last character of this token.
endMap(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
endMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
endMap(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
endMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
endMap(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Check the mark for end of the serialized map.
endMap(TreeMap, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Mark the end of a serialized map.
endMap(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
endMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
endMap(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
endMap(TreeMap, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
endRecord(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
endRecord(Record, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
endRecord(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
endRecord(Record, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
endRecord(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Check the mark for end of the serialized record.
endRecord(Record, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Mark the end of a serialized record.
endRecord(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
endRecord(Record, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
endRecord(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
endRecord(Record, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
endVector(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
endVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
endVector(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
endVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
endVector(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Check the mark for end of the serialized vector.
endVector(ArrayList, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Mark the end of a serialized vector.
endVector(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
endVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
endVector(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
endVector(ArrayList, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
ensureInflated() - 类 中的方法org.apache.hadoop.io.CompressedWritable
Must be called by all methods which access fields to ensure that the data has been uncompressed.
entry() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Get an entry to access the key and value.
entrySet() - 类 中的方法org.apache.hadoop.io.MapWritable
entrySet() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
env_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
Environment - org.apache.hadoop.streaming中的类
This is a class used to get the current environment on the host machines running the map/reduce.
Environment() - 类 的构造器org.apache.hadoop.streaming.Environment
 
eof - 类 中的变量org.apache.hadoop.io.compress.DecompressorStream
 
EOF - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
eol - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
The end of line string for this machine.
EOS_DELIMITER - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
 
EQUAL - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
equals(Object) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
 
equals(Object) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
 
equals(Object) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
 
equals(Object) - 类 中的方法org.apache.hadoop.fs.FileChecksum
Return true if both the algorithms and the values are the same.
equals(Object) - 类 中的方法org.apache.hadoop.fs.FileStatus
Compare if this object is equal to another object
equals(Object) - 类 中的方法org.apache.hadoop.fs.Path
 
equals(Object) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
equals(Object) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
equals(Object) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
equals(Object) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
equals(Object) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
equals(Object) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
 
equals(Object) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
 
equals(Object) - 类 中的方法org.apache.hadoop.hdfs.util.ByteArray
 
equals(Object) - 类 中的方法org.apache.hadoop.io.BinaryComparable
Return true if bytes from {#getBytes()} match.
equals(Object) - 类 中的方法org.apache.hadoop.io.BooleanWritable
 
equals(Object) - 类 中的方法org.apache.hadoop.io.BytesWritable
Are the two byte sequences equal?
equals(Object) - 类 中的方法org.apache.hadoop.io.ByteWritable
Returns true iff o is a ByteWritable with the same value.
equals(Object) - 类 中的方法org.apache.hadoop.io.DoubleWritable
Returns true iff o is a DoubleWritable with the same value.
equals(Object) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Compare whether this and other points to the same key value.
equals(Object) - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
 
equals(Object) - 类 中的方法org.apache.hadoop.io.FloatWritable
Returns true iff o is a FloatWritable with the same value.
equals(Object) - 类 中的方法org.apache.hadoop.io.IntWritable
Returns true iff o is a IntWritable with the same value.
equals(Object) - 类 中的方法org.apache.hadoop.io.LongWritable
Returns true iff o is a LongWritable with the same value.
equals(Object) - 类 中的方法org.apache.hadoop.io.MD5Hash
Returns true iff o is an MD5Hash whose digest contains the same values.
equals(Object) - 类 中的方法org.apache.hadoop.io.NullWritable
 
equals(Object) - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
 
equals(SequenceFile.Metadata) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
equals(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
 
equals(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
 
equals(Object) - 类 中的方法org.apache.hadoop.io.Text
Returns true iff o is a Text with the same contents.
equals(Object) - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
Returns true iff o is a UTF8 with the same contents.
equals(Object) - 类 中的方法org.apache.hadoop.io.VIntWritable
Returns true iff o is a VIntWritable with the same value.
equals(Object) - 类 中的方法org.apache.hadoop.io.VLongWritable
Returns true iff o is a VLongWritable with the same value.
equals(Object) - 类 中的方法org.apache.hadoop.mapred.Counters
 
equals(Object) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Checks for (content) equality of Groups
equals(Object) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
equals(Object) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Return true iff compareTo(other) retn true.
equals(Object) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
 
equals(Object) - 类 中的方法org.apache.hadoop.mapred.TaskReport
 
equals(Object) - 类 中的方法org.apache.hadoop.mapreduce.Counter
 
equals(Object) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
 
equals(Object) - 类 中的方法org.apache.hadoop.mapreduce.Counters
 
equals(Object) - 类 中的方法org.apache.hadoop.mapreduce.ID
 
equals(Object) - 类 中的方法org.apache.hadoop.mapreduce.JobID
 
equals(Object) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
 
equals(Object) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
 
equals(Object) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
equals(Object) - 类 中的方法org.apache.hadoop.metrics2.Metric
 
equals(Object) - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
 
equals(Object) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
equals(Object) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
 
equals(Object) - 类 中的方法org.apache.hadoop.record.Buffer
 
equals(Object) - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
Two FieldTypeInfos are equal if ach of their fields matches
equals(FieldTypeInfo) - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
 
equals(Object) - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
Two map typeIDs are equal if their constituent elements have the same type
equals(Object) - 类 中的方法org.apache.hadoop.record.meta.TypeID
Two base typeIDs are equal if they refer to the same type
equals(Object) - 类 中的方法org.apache.hadoop.record.meta.VectorTypeID
Two vector typeIDs are equal if their constituent elements have the same type
equals(Object) - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
Return if two token instances are equal.
equals(Object) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
equals(Object) - 类 中的方法org.apache.hadoop.security.token.Token
 
equals(Object) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Compare the subjects to see if they are equal to each other.
equals(Object) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
 
equals(Object) - 类 中的方法org.apache.hadoop.tools.rumen.Node
 
equals(Object) - 类 中的方法org.apache.hadoop.util.bloom.Key
 
equalsWithWildcard(long, long) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.GenerationStamp
 
Errno - org.apache.hadoop.io.nativeio中的枚举
Enum representing POSIX errno values.
ERROR_CODE - 异常错误 中的静态变量org.apache.hadoop.tools.DistCp.DuplicationException
Error code for this exception
errorReport(DatanodeRegistration, int, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
errorReport(DatanodeRegistration, int, String) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
errorReport() tells the NameNode about something that has gone awry.
ESCAPE_CHAR - 类 中的静态变量org.apache.hadoop.util.StringUtils
 
escapeHTML(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Escapes HTML Special characters present in the string.
escapeString(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Escape commas in the string using the default escape char
escapeString(String, char, char) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Escape charToEscape in the string with the escape char escapeChar
escapeString(String, char, char[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
 
estimate(int, long, JobConf) - 类 中的静态方法org.apache.hadoop.examples.PiEstimator
Run a map/reduce job for estimating Pi.
EventCounter - org.apache.hadoop.log中的类
已过时。
use EventCounter instead
EventCounter() - 类 的构造器org.apache.hadoop.log.EventCounter
已过时。
 
EventCounter - org.apache.hadoop.log.metrics中的类
A log4J Appender that simply counts logging events in three levels: fatal, error and warn.
EventCounter() - 类 的构造器org.apache.hadoop.log.metrics.EventCounter
 
EventCounter - org.apache.hadoop.metrics.jvm中的类
已过时。
use EventCounter instead
EventCounter() - 类 的构造器org.apache.hadoop.metrics.jvm.EventCounter
已过时。
 
EventType - org.apache.hadoop.tools.rumen中的枚举
 
ExampleDriver - org.apache.hadoop.examples中的类
A description of an example program based on its class and a human-readable description.
ExampleDriver() - 类 的构造器org.apache.hadoop.examples.ExampleDriver
 
exception() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
Mark the request as an exception occurred.
ExceptionHandler - org.apache.hadoop.hdfs.web.resources中的类
Handle exceptions.
ExceptionHandler() - 类 的构造器org.apache.hadoop.hdfs.web.resources.ExceptionHandler
 
execCommand(String...) - 类 中的静态方法org.apache.hadoop.util.Shell
Static method to execute a shell command.
execCommand(Map<String, String>, String[], long) - 类 中的静态方法org.apache.hadoop.util.Shell
Static method to execute a shell command.
execCommand(Map<String, String>, String...) - 类 中的静态方法org.apache.hadoop.util.Shell
Static method to execute a shell command.
execShellGetUnixGroups(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
execShellGetUserForNetgroup(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
execute() - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
Invoke the Hadoop record compiler on each record definition file
execute() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
Implements the core-execution.
execute(Object...) - 类 中的方法org.apache.hadoop.tools.distcp2.util.RetriableCommand
The execute() method invokes doExecute() until either: 1. doExecute() succeeds, or 2. the command may no longer be retried (e.g. runs out of retry-attempts).
execute() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
Execute the shell command.
executeQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
executeQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.MySQLDataDrivenDBRecordReader
 
executeQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.MySQLDBRecordReader
 
exists(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Check if exists.
exists(Path) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
Get file status.
exists(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Implemented using getFileInfo(src)
exitTaskTracker(Throwable) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
Exit the task tracker because of a fatal error.
exitUsage(boolean) - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
ExpandBuff(boolean) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
expectedTokenSequences - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
Each entry in this array is an array of integers.
exponentialBackoffRetry(int, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
Keep trying a limited number of times, waiting a growing amount of time between attempts, and then fail by re-throwing the exception.
ExportedBlockKeys - org.apache.hadoop.hdfs.security.token.block中的类
Object for passing block keys
ExportedBlockKeys() - 类 的构造器org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
exportedKeys - 类 中的变量org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
exportKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Export block keys, only to be used in master mode
expunge() - 类 中的方法org.apache.hadoop.fs.Trash
Delete old checkpoints.
extractOutputKeyValue(String, String, String, List<Integer>, List<Integer>, int, boolean, boolean) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
extractToken(HttpURLConnection, AuthenticatedURL.Token) - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
Helper method that extracts an authentication token received from a connection.

F

fail(String) - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
FAILED - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
 
FAILED - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
 
failedJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
failedTask(TaskInProgress, TaskAttemptID, String, TaskStatus.Phase, TaskStatus.State, String) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Fail a task with a given reason, but without a status object.
failJob(JobInProgress) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Fail a job and inform the listeners.
failJob(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
failTask(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapreduce.Job
Fail indicated task attempt.
FAILURE_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
 
FATAL_DISK_ERROR - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
fatalError(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
A child task had a fatal error.
fatalError(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report that the task encounted a fatal error.
fetchServiceTicket(URL) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Explicitly pull the service ticket for the specified host.
Field() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
FieldSelectionHelper - org.apache.hadoop.mapreduce.lib.fieldsel中的类
This class implements a mapper/reducer class that can be used to perform field selections in a manner similar to unix cut.
FieldSelectionHelper() - 类 的构造器org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
FieldSelectionHelper(Text, Text) - 类 的构造器org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
FieldSelectionMapper<K,V> - org.apache.hadoop.mapreduce.lib.fieldsel中的类
This class implements a mapper class that can be used to perform field selections in a manner similar to unix cut.
FieldSelectionMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
 
FieldSelectionMapReduce<K,V> - org.apache.hadoop.mapred.lib中的类
This class implements a mapper/reducer class that can be used to perform field selections in a manner similar to unix cut.
FieldSelectionMapReduce() - 类 的构造器org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
 
FieldSelectionReducer<K,V> - org.apache.hadoop.mapreduce.lib.fieldsel中的类
This class implements a reducer class that can be used to perform field selections in a manner similar to unix cut.
FieldSelectionReducer() - 类 的构造器org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
 
FieldTypeInfo - org.apache.hadoop.record.meta中的类
Represents a type information for a field, which is made up of its ID (name) and its type (a TypeID object).
file - 类 中的变量org.apache.hadoop.fs.FSInputChecker
The file name from which data is read from
FILE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics.file.FileContext
已过时。
 
FILE_TYPES - 类 中的静态变量org.apache.hadoop.fs.s3.INode
 
FileAlreadyExistsException - org.apache.hadoop.fs中的异常错误
Used when target file already exists for any operation and is not configured to be overwritten.
FileAlreadyExistsException() - 异常错误 的构造器org.apache.hadoop.fs.FileAlreadyExistsException
 
FileAlreadyExistsException(String) - 异常错误 的构造器org.apache.hadoop.fs.FileAlreadyExistsException
 
FileAlreadyExistsException - org.apache.hadoop.mapred中的异常错误
Used when target file already exists for any operation and is not configured to be overwritten.
FileAlreadyExistsException() - 异常错误 的构造器org.apache.hadoop.mapred.FileAlreadyExistsException
 
FileAlreadyExistsException(String) - 异常错误 的构造器org.apache.hadoop.mapred.FileAlreadyExistsException
 
FileBasedCopyListing - org.apache.hadoop.tools.distcp2中的类
FileBasedCopyListing implements the CopyListing interface, to create the copy-listing for DistCp, by iterating over all source paths mentioned in a specified input-file.
FileBasedCopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.FileBasedCopyListing
Constructor, to initialize base-class.
FileChecksum - org.apache.hadoop.fs中的类
An abstract class representing file checksums for files.
FileChecksum() - 类 的构造器org.apache.hadoop.fs.FileChecksum
 
FileChecksumServlets - org.apache.hadoop.hdfs.server.namenode中的类
Servlets for file checksum
FileChecksumServlets() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.FileChecksumServlets
 
FileChecksumServlets.GetServlet - org.apache.hadoop.hdfs.server.namenode中的类
Get FileChecksum
FileChecksumServlets.GetServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.FileChecksumServlets.GetServlet
 
FileChecksumServlets.RedirectServlet - org.apache.hadoop.hdfs.server.namenode中的类
Redirect file checksum queries to an appropriate datanode.
FileChecksumServlets.RedirectServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.FileChecksumServlets.RedirectServlet
 
FileContext - org.apache.hadoop.metrics.file中的类
已过时。
use FileSink instead.
FileContext() - 类 的构造器org.apache.hadoop.metrics.file.FileContext
已过时。
Creates a new instance of FileContext
FileDataServlet - org.apache.hadoop.hdfs.server.namenode中的类
Redirect queries about the hosted filesystem to an appropriate datanode.
FileDataServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.FileDataServlet
 
fileExists(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
fileExtension(String) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
 
FileInputFormat<K,V> - org.apache.hadoop.mapred中的类
A base class for file-based InputFormat.
FileInputFormat() - 类 的构造器org.apache.hadoop.mapred.FileInputFormat
 
FileInputFormat<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
A base class for file-based InputFormats.
FileInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.FileInputFormat
 
FileInputFormat.Counter - org.apache.hadoop.mapred中的枚举
 
FileInputFormat.Counter - org.apache.hadoop.mapreduce.lib.input中的枚举
 
fileLength(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
fileLength - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
 
fileModified(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
FileOutputCommitter - org.apache.hadoop.mapred中的类
An OutputCommitter that commits files specified in job output directory i.e.
FileOutputCommitter() - 类 的构造器org.apache.hadoop.mapred.FileOutputCommitter
 
FileOutputCommitter - org.apache.hadoop.mapreduce.lib.output中的类
An OutputCommitter that commits files specified in job output directory i.e.
FileOutputCommitter(Path, TaskAttemptContext) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Create a file output committer
FileOutputFormat<K,V> - org.apache.hadoop.mapred中的类
A base class for OutputFormat.
FileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.FileOutputFormat
 
FileOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
A base class for OutputFormats that read from FileSystems.
FileOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
 
FileOutputFormat.Counter - org.apache.hadoop.mapred中的枚举
 
FileOutputFormat.Counter - org.apache.hadoop.mapreduce.lib.output中的枚举
 
FileSink - org.apache.hadoop.metrics2.sink中的类
 
FileSink() - 类 的构造器org.apache.hadoop.metrics2.sink.FileSink
 
FileSplit - org.apache.hadoop.mapred中的类
A section of an input file.
FileSplit(Path, long, long, JobConf) - 类 的构造器org.apache.hadoop.mapred.FileSplit
已过时。 
FileSplit(Path, long, long, String[]) - 类 的构造器org.apache.hadoop.mapred.FileSplit
Constructs a split with host information
FileSplit - org.apache.hadoop.mapreduce.lib.input中的类
A section of an input file.
FileSplit(Path, long, long, String[]) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.FileSplit
Constructs a split with host information
FileStatus - org.apache.hadoop.fs中的类
Interface that represents the client side information for a file.
FileStatus() - 类 的构造器org.apache.hadoop.fs.FileStatus
 
FileStatus(long, boolean, int, long, long, Path) - 类 的构造器org.apache.hadoop.fs.FileStatus
 
FileStatus(long, boolean, int, long, long, long, FsPermission, String, String, Path) - 类 的构造器org.apache.hadoop.fs.FileStatus
 
FileSystem - org.apache.hadoop.fs中的类
An abstract base class for a fairly generic filesystem.
FileSystem() - 类 的构造器org.apache.hadoop.fs.FileSystem
 
FileSystem.Statistics - org.apache.hadoop.fs中的类
 
FileSystem.Statistics(String) - 类 的构造器org.apache.hadoop.fs.FileSystem.Statistics
 
FILESYSTEM_COUNTER_GROUP - 类 中的静态变量org.apache.hadoop.mapred.Task
Name of the FileSystem counters' group
FileSystemDirectory - org.apache.hadoop.contrib.index.lucene中的类
This class implements a Lucene Directory on top of a general FileSystem.
FileSystemDirectory(FileSystem, Path, boolean, Configuration) - 类 的构造器org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
Constructor
FileSystemStore - org.apache.hadoop.fs.s3中的接口
A facility for storing and retrieving INodes and Blocks.
fileURIs - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
FileUtil - org.apache.hadoop.fs中的类
A collection of file-processing util methods
FileUtil() - 类 的构造器org.apache.hadoop.fs.FileUtil
 
FillBuff() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
fillJoinCollector(K) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
For all child RRs offering the key provided, obtain an iterator at that position in the JoinCollector.
fillJoinCollector(K) - 类 中的方法org.apache.hadoop.mapred.join.OverrideRecordReader
Instead of filling the JoinCollector with iterators from all data sources, fill only the rightmost for this key.
Filter - org.apache.hadoop.util.bloom中的类
Defines the general behavior of a filter.
Filter() - 类 的构造器org.apache.hadoop.util.bloom.Filter
 
Filter(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.Filter
Constructor.
FILTER_CLASS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
 
FILTER_FREQUENCY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
 
FILTER_REGEX - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
 
FilterContainer - org.apache.hadoop.http中的接口
A container class for javax.servlet.Filter.
FilterFileSystem - org.apache.hadoop.fs中的类
A FilterFileSystem contains some other file system, which it uses as its basic file system, possibly transforming the data along the way or providing additional functionality.
FilterFileSystem() - 类 的构造器org.apache.hadoop.fs.FilterFileSystem
 
FilterFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.fs.FilterFileSystem
 
FilterInitializer - org.apache.hadoop.http中的类
Initialize a javax.servlet.Filter.
FilterInitializer() - 类 的构造器org.apache.hadoop.http.FilterInitializer
 
filterNames - 类 中的变量org.apache.hadoop.http.HttpServer
 
FilterOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
FilterOutputFormat is a convenience class that wraps OutputFormat.
FilterOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
 
FilterOutputFormat(OutputFormat<K, V>) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
Create a FilterOutputFormat based on the underlying output format.
FilterOutputFormat.FilterRecordWriter<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
FilterRecordWriter is a convenience wrapper class that extends the RecordWriter.
FilterOutputFormat.FilterRecordWriter() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
 
FilterOutputFormat.FilterRecordWriter(RecordWriter<K, V>) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
 
FINALIZE - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
 
finalize() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
Overriden to close the stream.
finalize() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
finalizeBlock(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
finalizeBlock(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Finalizes the block previously opened for writing using writeToBlock.
finalizeBlockIfNeeded(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
finalizeBlockIfNeeded(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Finalizes the block previously opened for writing using writeToBlock if not already finalized
finalized - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
 
finalizeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
Finalize previously upgraded files system state.
finalizeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
finalizeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Finalize previously upgraded files system state.
finalizeUpgrade() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Finalize previous upgrade.
finalizeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
finalizeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Command to ask the namenode to finalize previously performed upgrade.
finalKey(WritableComparable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Reads the final key from the file.
find(String) - 类 中的方法org.apache.hadoop.io.Text
 
find(String, int) - 类 中的方法org.apache.hadoop.io.Text
Finds any occurence of what in the backing buffer, starting as position start.
findBlock(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
Find block containing specified offset.
findBlockFile(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Return the block file for the given ID
findByte(byte[], int, int, byte) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
findByte(byte[], int, int, byte) - 类 中的静态方法org.apache.hadoop.util.UTF8ByteArrayUtils
Find the first occurrence of the given byte b in a UTF-8 encoded string
findBytes(byte[], int, int, byte[]) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
findBytes(byte[], int, int, byte[]) - 类 中的静态方法org.apache.hadoop.util.UTF8ByteArrayUtils
Find the first occurrence of the given bytes b in a UTF-8 encoded string
findContainingJar(Class) - 类 中的静态方法org.apache.hadoop.util.ClassUtil
Find a jar that contains a class of the same name, if any.
findCounter(Enum) - 类 中的方法org.apache.hadoop.mapred.Counters
Find the counter for the given enum.
findCounter(String, String) - 类 中的方法org.apache.hadoop.mapred.Counters
Find a counter given the group and the name.
findCounter(String, int, String) - 类 中的方法org.apache.hadoop.mapred.Counters
已过时。 
findCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
Internal to find a counter in a group.
findCounter(String) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
 
findCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.Counters
 
findCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapreduce.Counters
Find the counter for the given enum.
findCredentials() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
 
findFinishedMap(int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Find the details of someplace where a map has finished
findInClasspath(String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
findInClasspath(String, ClassLoader) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
findMetaFile(File) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Find the corresponding meta data file from a given block file
findNext(String, char, char, int, StringBuilder) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Finds the first occurrence of the separator character ignoring the escaped separators starting from the index.
findNthByte(byte[], int, int, byte, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
findNthByte(byte[], byte, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
findNthByte(byte[], int, int, byte, int) - 类 中的静态方法org.apache.hadoop.util.UTF8ByteArrayUtils
Find the nth occurrence of the given byte b in a UTF-8 encoded string
findNthByte(byte[], byte, int) - 类 中的静态方法org.apache.hadoop.util.UTF8ByteArrayUtils
Find the nth occurrence of the given byte b in a UTF-8 encoded string
findPort - 类 中的变量org.apache.hadoop.http.HttpServer
 
findSeparator(byte[], int, int, byte) - 类 中的静态方法org.apache.hadoop.mapred.KeyValueLineRecordReader
 
findSeparator(byte[], int, int, byte) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
findSpeculativeTask(Collection<TaskInProgress>, TaskTrackerStatus, double, long, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Find a speculative task
findTab(byte[], int, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
Find the first occured tab in a UTF-8 encoded string
findTab(byte[]) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
Find the first occured tab in a UTF-8 encoded string
findTab(byte[], int, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
findTab(byte[]) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
finish() - 类 中的方法org.apache.hadoop.io.compress.BlockCompressorStream
 
finish() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
finish() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
 
finish() - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
Finishes writing compressed data to the output stream without closing the underlying stream.
finish() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
When called, indicates that compression should end with the current contents of the input buffer.
finish() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
 
finish() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
 
finish() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
When called, indicates that compression should end with the current contents of the input buffer.
finish() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
finished() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
finished() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
finished() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Returns true if the end of the compressed data output stream has been reached.
finished() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Returns true if the end of the decompressed data output stream has been reached.
finished() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Returns true if the end of the compressed data output stream has been reached.
finished() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Returns true if the end of the decompressed data output stream has been reached.
finished() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Returns true if the end of the gzip substream (single "member") has been reached.
finished() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
finished() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
finishedMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
finishedReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
FIRST_VALID_STAMP - 类 中的静态变量org.apache.hadoop.hdfs.server.common.GenerationStamp
 
firstKey() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
fix(FileSystem, Path, Class<? extends Writable>, Class<? extends Writable>, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.io.MapFile
This method attempts to fix a corrupt MapFile by re-creating its index.
FLOAT - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
FLOAT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
FloatSplitter - org.apache.hadoop.mapreduce.lib.db中的类
Implement DBSplitter over floating-point values.
FloatSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.FloatSplitter
 
FloatTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
 
FloatWritable - org.apache.hadoop.io中的类
A WritableComparable for floats.
FloatWritable() - 类 的构造器org.apache.hadoop.io.FloatWritable
 
FloatWritable(float) - 类 的构造器org.apache.hadoop.io.FloatWritable
 
FloatWritable.Comparator - org.apache.hadoop.io中的类
A Comparator optimized for FloatWritable.
FloatWritable.Comparator() - 类 的构造器org.apache.hadoop.io.FloatWritable.Comparator
 
floorIndex(double) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
 
flush() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
 
flush() - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
 
flush() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
 
flush() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
 
flush() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
已过时。
Flushes the output writer, forcing updates to disk.
flush() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Called each period after all records have been emitted, this method does nothing.
flush() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
flush() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSink
Flush any buffered metrics
flush() - 类 中的方法org.apache.hadoop.metrics2.sink.FileSink
 
flush() - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
flush() - 类 中的方法org.apache.hadoop.security.SaslOutputStream
Flushes this output stream
flushBuffer() - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
 
flushBuffer(boolean) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
 
FORCE_ALL - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
 
FORCE_FIRST_CHOICE - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
 
FORCE_NONE - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
 
forceProceed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
 
format() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
format(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
Format a new filesystem.
formatBytes(long) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
formatBytes2(long) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
formatPercent(double, int) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Format a percentage for presentation to the user.
formatTime(long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Given the time in long milliseconds, returns a String in the format Xhrs, Ymins, Z sec.
formatTimeDiff(long, long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Given a finish and start time in long milliseconds, returns a String in the format Xhrs, Ymins, Z sec, for the time difference between two times.
forName(String) - 类 中的静态方法org.apache.hadoop.mapred.JobID
Construct a JobId object from given string
forName(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
Construct a TaskAttemptID object from given string
forName(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
 
forName(String) - 类 中的静态方法org.apache.hadoop.mapreduce.JobID
Construct a JobId object from given string
forName(String) - 类 中的静态方法org.apache.hadoop.mapreduce.TaskAttemptID
Construct a TaskAttemptID object from given string
forName(String) - 类 中的静态方法org.apache.hadoop.mapreduce.TaskID
Construct a TaskID object from given string
fourRotations - 类 中的静态变量org.apache.hadoop.examples.dancing.Pentomino
Are all 4 rotations unique?
fromBytes(byte[]) - 类 中的静态方法org.apache.hadoop.io.UTF8
已过时。
Convert a UTF-8 encoded byte array back into a string.
fromEscapedCompactString(String) - 类 中的静态方法org.apache.hadoop.mapred.Counters
Convert a stringified counter representation into a counter object.
fromShort(short) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
 
fromString(String) - 类 中的方法org.apache.hadoop.io.DefaultStringifier
 
fromString(String) - 接口 中的方法org.apache.hadoop.io.Stringifier
Restores the object from its string representation.
fs - 类 中的变量org.apache.hadoop.fs.FilterFileSystem
 
fs - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
fs - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
FS_DEFAULT_NAME_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
FS_DEFAULT_NAME_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
FS_DEFAULT_NAME_KEY - 类 中的静态变量org.apache.hadoop.fs.FileSystem
 
FsAction - org.apache.hadoop.fs.permission中的枚举
File system actions, e.g. read, write, etc.
fsck() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
Check files on DFS, starting from the indicated path.
FsckServlet - org.apache.hadoop.hdfs.server.namenode中的类
This class is used in Namesystem's web server to do fsck on namenode.
FsckServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.FsckServlet
 
FSClusterStats - org.apache.hadoop.hdfs.server.namenode中的接口
This interface is used for retrieving the load related statistics of the cluster.
FSConstants - org.apache.hadoop.hdfs.protocol中的接口
Some handy constants
FSConstants.DatanodeReportType - org.apache.hadoop.hdfs.protocol中的枚举
 
FSConstants.SafeModeAction - org.apache.hadoop.hdfs.protocol中的枚举
 
FSConstants.UpgradeAction - org.apache.hadoop.hdfs.protocol中的枚举
Distributed upgrade actions: 1.
FSDataInputStream - org.apache.hadoop.fs中的类
Utility that wraps a FSInputStream in a DataInputStream and buffers input through a BufferedInputStream.
FSDataInputStream(InputStream) - 类 的构造器org.apache.hadoop.fs.FSDataInputStream
 
FSDataOutputStream - org.apache.hadoop.fs中的类
Utility that wraps a OutputStream in a DataOutputStream, buffers output through a BufferedOutputStream and creates a checksum file.
FSDataOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.fs.FSDataOutputStream
已过时。
FSDataOutputStream(OutputStream, FileSystem.Statistics) - 类 的构造器org.apache.hadoop.fs.FSDataOutputStream
 
FSDataOutputStream(OutputStream, FileSystem.Statistics, long) - 类 的构造器org.apache.hadoop.fs.FSDataOutputStream
 
FSDataset - org.apache.hadoop.hdfs.server.datanode中的类
FSDataset manages a set of data blocks.
FSDataset(DataStorage, Configuration) - 类 的构造器org.apache.hadoop.hdfs.server.datanode.FSDataset
An FSDataset has a directory where it loads its data files.
FSDatasetInterface - org.apache.hadoop.hdfs.server.datanode中的接口
This is an interface for the underlying storage that stores blocks for a data node.
FSDatasetInterface.BlockInputStreams - org.apache.hadoop.hdfs.server.datanode中的类
This class contains the input streams for the data and checksum of a block
FSDatasetInterface.BlockWriteStreams - org.apache.hadoop.hdfs.server.datanode中的类
This class contains the output streams for the data and checksum of a block
FSDatasetInterface.MetaDataInputStream - org.apache.hadoop.hdfs.server.datanode中的类
This class provides the input stream and length of the metadata of a block
FSDatasetMBean - org.apache.hadoop.hdfs.server.datanode.metrics中的接口
This Interface defines the methods to get the status of a the FSDataset of a data node.
FSEditLog - org.apache.hadoop.hdfs.server.namenode中的类
FSEditLog maintains a log of the namespace modifications.
FSError - org.apache.hadoop.fs中的错误
Thrown for unexpected filesystem errors, presumed to reflect disk errors in the native filesystem.
fsError(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
A child task had a local filesystem error.
fsError(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report that the task encounted a local filesystem error.
FSImage - org.apache.hadoop.hdfs.server.namenode中的类
FSImage handles checkpointing and logging of the namespace edits.
FSImage(StorageInfo) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.FSImage
 
FSImage(File) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.FSImage
Represents an Image (image and edit file).
FSInodeInfo - org.apache.hadoop.hdfs.server.namenode中的接口
This interface is used used the pluggable block placement policy to expose a few characteristics of an Inode.
FSInputChecker - org.apache.hadoop.fs中的类
This is a generic input stream for verifying checksums for data before it is read by a user.
FSInputChecker(Path, int) - 类 的构造器org.apache.hadoop.fs.FSInputChecker
Constructor
FSInputChecker(Path, int, boolean, Checksum, int, int) - 类 的构造器org.apache.hadoop.fs.FSInputChecker
Constructor
FSInputStream - org.apache.hadoop.fs中的类
FSInputStream is a generic old InputStream with a little bit of RAF-style seek ability.
FSInputStream() - 类 的构造器org.apache.hadoop.fs.FSInputStream
 
FSNamesystem - org.apache.hadoop.hdfs.server.namenode中的类
FSNamesystem does the actual bookkeeping work for the DataNode.
FSNamesystemMBean - org.apache.hadoop.hdfs.server.namenode.metrics中的接口
This Interface defines the methods to get the status of a the FSNamesystem of a name node.
fsNamesystemObject - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
FSOutputSummer - org.apache.hadoop.fs中的类
This is a generic output stream for generating checksums for data before it is written to the underlying stream
FSOutputSummer(Checksum, int, int) - 类 的构造器org.apache.hadoop.fs.FSOutputSummer
 
FsPermission - org.apache.hadoop.fs.permission中的类
A class for file/directory permissions.
FsPermission(FsAction, FsAction, FsAction) - 类 的构造器org.apache.hadoop.fs.permission.FsPermission
Construct by the given FsAction.
FsPermission(short) - 类 的构造器org.apache.hadoop.fs.permission.FsPermission
Construct by the given mode.
FsPermission(FsPermission) - 类 的构造器org.apache.hadoop.fs.permission.FsPermission
Copy constructor
FsPermission(String) - 类 的构造器org.apache.hadoop.fs.permission.FsPermission
Construct by given mode, either in octal or symbolic format.
FsShell - org.apache.hadoop.fs中的类
Provide command line access to a FileSystem.
FsShell() - 类 的构造器org.apache.hadoop.fs.FsShell
 
FsShell(Configuration) - 类 的构造器org.apache.hadoop.fs.FsShell
 
fstat(FileDescriptor) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
Wrapper around fstat(2)
FsUrlStreamHandlerFactory - org.apache.hadoop.fs中的类
Factory for URL stream handlers.
FsUrlStreamHandlerFactory() - 类 的构造器org.apache.hadoop.fs.FsUrlStreamHandlerFactory
 
FsUrlStreamHandlerFactory(Configuration) - 类 的构造器org.apache.hadoop.fs.FsUrlStreamHandlerFactory
 
fsync(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Write all metadata for this file into persistent storage.
fsync(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Write all metadata for this file into persistent storage.
FTPException - org.apache.hadoop.fs.ftp中的异常错误
A class to wrap a Throwable into a Runtime Exception.
FTPException(String) - 异常错误 的构造器org.apache.hadoop.fs.ftp.FTPException
 
FTPException(Throwable) - 异常错误 的构造器org.apache.hadoop.fs.ftp.FTPException
 
FTPException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.fs.ftp.FTPException
 
FTPFileSystem - org.apache.hadoop.fs.ftp中的类
A FileSystem backed by an FTP client provided by Apache Commons Net.
FTPFileSystem() - 类 的构造器org.apache.hadoop.fs.ftp.FTPFileSystem
 
FTPInputStream - org.apache.hadoop.fs.ftp中的类
 
FTPInputStream(InputStream, FTPClient, FileSystem.Statistics) - 类 的构造器org.apache.hadoop.fs.ftp.FTPInputStream
 
fullyDelete(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Delete a directory and all its contents.
fullyDelete(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
fullyDeleteContents(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Delete the contents of a directory, not the directory itself.

G

G_SIZE - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
GangliaContext - org.apache.hadoop.metrics.ganglia中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
GangliaContext() - 类 的构造器org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
Creates a new instance of GangliaContext
GangliaContext31 - org.apache.hadoop.metrics.ganglia中的类
Context for sending metrics to Ganglia version 3.1.x. 3.1.1 has a slightly different wire portal compared to 3.0.x.
GangliaContext31() - 类 的构造器org.apache.hadoop.metrics.ganglia.GangliaContext31
 
gangliaMetricVisitor - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
Used for visiting Metrics
GangliaSink30 - org.apache.hadoop.metrics2.sink.ganglia中的类
This code supports Ganglia 3.0
GangliaSink30() - 类 的构造器org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
 
GangliaSink31 - org.apache.hadoop.metrics2.sink.ganglia中的类
This code supports Ganglia 3.1
GangliaSink31() - 类 的构造器org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31
 
gauge(MetricGauge<Integer>, int) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
Callback for int value gauges
gauge(MetricGauge<Long>, long) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
Callback for long value gauges
gauge(MetricGauge<Float>, float) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
Callback for float value gauges
gauge(MetricGauge<Double>, double) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
Callback for double value gauges
genCode(String, String, ArrayList<String>) - 类 中的方法org.apache.hadoop.record.compiler.JFile
Generate record code in given language.
generateActualKey(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
Generate the actual key from the given key/value.
generateActualValue(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
Generate the actual value from the given key and value.
generateEntry(String, String, Text) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
generateFileNameForKeyValue(K, V, String) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
Generate the file output file name based on the given key and the leaf file name.
generateGroupKey(TaggedMapOutput) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
Generate a map output key.
generateHash(byte[], SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
Base64 encoded hash of msg
generateInputTag(String) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
Determine the source tag based on the input file name.
generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.examples.AggregateWordCount.WordCountPlugInClass
 
generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.examples.AggregateWordHistogram.AggregateWordHistogramPlugin
Parse the given value, generate an aggregation-id/value pair per word.
generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
Generate a list of aggregation-id/value pairs for the given key/value pairs by delegating the invocation to the real object.
generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
Generate 1 or 2 aggregation-id/value pairs for the given key/value pair.
generateKeyValPairs(Object, Object) - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
Generate a list of aggregation-id/value pairs for the given key/value pair.
generateLeafFileName(String) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
Generate the leaf name for the output file name.
generateParseException() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
generateSecret() - 类 中的方法org.apache.hadoop.security.token.SecretManager
Generate a new random secret key.
generateTaggedMapOutput(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
Generate a tagged map output value.
generateToken(Block, EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Generate an block token for current user
generateToken(String, Block, EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Generate a block token for a specified user
generateToken(long[], EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Generate a block token for the current user based on a collection of blockIds
generateToken(String, long[], EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Generate a block token based on a collection of blockIds
generateValueAggregator(String) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
generationFromSegmentsFileName(String) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
Parse the generation off the segments file name and return it.
GenerationStamp - org.apache.hadoop.hdfs.server.common中的类
A GenerationStamp is a Hadoop FS primitive, identified by a long.
GenerationStamp() - 类 的构造器org.apache.hadoop.hdfs.server.common.GenerationStamp
Create a new instance, initialized to FIRST_VALID_STAMP.
GenericOptionsParser - org.apache.hadoop.util中的类
GenericOptionsParser is a utility to parse command line arguments generic to the Hadoop framework.
GenericOptionsParser(Options, String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
Create an options parser with the given options to parse the args.
GenericOptionsParser(String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
Create an options parser to parse the args.
GenericOptionsParser(Configuration, String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
Create a GenericOptionsParser to parse only the generic Hadoop arguments.
GenericOptionsParser(Configuration, Options, String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
Create a GenericOptionsParser to parse given options as well as generic Hadoop options.
GenericsUtil - org.apache.hadoop.util中的类
Contains utility methods for dealing with Java Generics.
GenericsUtil() - 类 的构造器org.apache.hadoop.util.GenericsUtil
 
GenericWritable - org.apache.hadoop.io中的类
A wrapper for Writable instances.
GenericWritable() - 类 的构造器org.apache.hadoop.io.GenericWritable
 
get(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property, null if no such property exists.
get(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property.
get(URI, Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
 
get(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Returns the configured filesystem implementation.
get(URI, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Returns the FileSystem for this URI's scheme and authority.
get(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
Get located block.
get(UserGroupInformation, DelegationParam, UriFsPathParam, GetOpParam, OffsetParam, LengthParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
Handle HTTP GET request.
get(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, GetOpParam, OffsetParam, LengthParam, RenewerParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP GET request.
get(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
Return the stored element which is equal to the given key.
get(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
 
get(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
get(long, Writable) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
Return the nth value in the file.
get() - 类 中的方法org.apache.hadoop.io.ArrayWritable
 
get(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
get() - 类 中的方法org.apache.hadoop.io.BooleanWritable
Returns the value of the BooleanWritable
get() - 类 中的方法org.apache.hadoop.io.BytesWritable
已过时。
get() - 类 中的方法org.apache.hadoop.io.ByteWritable
Return the value of this ByteWritable.
get() - 类 中的方法org.apache.hadoop.io.DoubleWritable
 
get(BytesWritable, BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Copy the key and value in one shot into BytesWritables.
get() - 类 中的方法org.apache.hadoop.io.FloatWritable
Return the value of this FloatWritable.
get() - 类 中的方法org.apache.hadoop.io.GenericWritable
Return the wrapped instance.
get() - 类 中的方法org.apache.hadoop.io.IntWritable
Return the value of this IntWritable.
get() - 类 中的方法org.apache.hadoop.io.LongWritable
Return the value of this LongWritable.
get(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Return the value for the named key, or null if none exists.
get(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
get() - 类 中的静态方法org.apache.hadoop.io.NullWritable
Returns the single instance of this class.
get() - 类 中的方法org.apache.hadoop.io.ObjectWritable
Return the instance, or null if none.
get(Text) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
get(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
Read the matching key from a set into key.
get(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
get() - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
 
get() - 类 中的方法org.apache.hadoop.io.VIntWritable
Return the value of this VIntWritable.
get() - 类 中的方法org.apache.hadoop.io.VLongWritable
Return the value of this LongWritable.
get(Class<? extends WritableComparable>) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Get a comparator for a WritableComparable implementation.
get() - 类 中的静态方法org.apache.hadoop.ipc.Server
Returns the server instance called under or null.
get(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
Get ith child InputSplit.
get(int) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
Get ith Writable from Tuple.
get() - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
已过时。
Get value
get() - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
已过时。
Get value
get(String) - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
已过时。
 
get(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Get a metric by name
get(String, Collection<MetricsTag>) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache
Get the cached record
get(DataInput) - 类 中的静态方法org.apache.hadoop.record.BinaryRecordInput
Get a thread-local record input for the supplied DataInput.
get(DataOutput) - 类 中的静态方法org.apache.hadoop.record.BinaryRecordOutput
Get a thread-local record output for the supplied DataOutput.
get() - 类 中的方法org.apache.hadoop.record.Buffer
Get the data from the Buffer.
get() - 类 中的方法org.apache.hadoop.tools.rumen.ClusterTopologyReader
Get the LoggedNetworkTopology object.
get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesInput
Get a thread-local typed bytes input for the supplied DataInput.
get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesOutput
Get a thread-local typed bytes output for the supplied DataOutput.
get(TypedBytesInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
Get a thread-local typed bytes record input for the supplied TypedBytesInput.
get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
Get a thread-local typed bytes record input for the supplied DataInput.
get(TypedBytesOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
Get a thread-local typed bytes record input for the supplied TypedBytesOutput.
get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
Get a thread-local typed bytes record output for the supplied DataOutput.
get(TypedBytesInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
Get a thread-local typed bytes writable input for the supplied TypedBytesInput.
get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
Get a thread-local typed bytes writable input for the supplied DataInput.
get(TypedBytesOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
Get a thread-local typed bytes writable input for the supplied TypedBytesOutput.
get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
Get a thread-local typed bytes writable output for the supplied DataOutput.
get() - 类 中的方法org.apache.hadoop.util.Progress
Returns the overall progress of the root.
GET_STATS_CAPACITY_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
 
GET_STATS_CORRUPT_BLOCKS_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
 
GET_STATS_MISSING_BLOCKS_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
 
GET_STATS_REMAINING_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
 
GET_STATS_UNDER_REPLICATED_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
 
GET_STATS_USED_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
 
getAbsolutePath() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UriFsPathParam
 
getAbsolutePath(String) - 类 中的方法org.apache.hadoop.streaming.PathFinder
Returns the full path name of this file if it is listed in the path
getAbsolutePaths() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
 
getAcceptAnonymous() - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
Returns if the handler is configured to support anonymous users.
getAccessKey() - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
 
getAccessModes() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
getAccessTime() - 类 中的方法org.apache.hadoop.fs.FileStatus
Get the access time of the file.
getAccessTime() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the access time of the file.
getAclName() - 枚举 中的方法org.apache.hadoop.mapreduce.JobACL
Get the name of the ACL.
getACLString() - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
Returns the String representation of this ACL.
getAction() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
 
getActiveTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the names of active task trackers in the cluster.
getAdditionalBlock(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Stub for old callers pre-HDFS-630
getAdditionalBlock(String, String, HashMap<Node, Node>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
The client would like to obtain an additional block for the indicated filename (which is being written-to).
getAddress(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getAddress(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getAddress(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
 
getAdjustedEnd() - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
After calling createInputStream, the values of start or end might change.
getAdjustedStart() - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
After calling createInputStream, the values of start or end might change.
getAdminAcls(Configuration, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Get the ACL object representing the cluster administrators The user who starts the daemon is automatically added as an admin
getAdminState() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Retrieves the admin state of this node.
getAlgorithmName() - 类 中的方法org.apache.hadoop.fs.FileChecksum
The checksum algorithm name
getAlgorithmName() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
The checksum algorithm name
getAliveNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getAliveNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getAllAttempts() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
 
getAllContexts() - 类 中的方法org.apache.hadoop.metrics.ContextFactory
已过时。
Returns all MetricsContexts built by this factory.
getAllJobs() - 类 中的方法org.apache.hadoop.mapred.JobClient
Get the jobs that are submitted.
getAllJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getAllJobs() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getAllKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
getAllKeys() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
 
getAllLocalPathsToRead(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
Get all of the paths that currently exist in the working directories.
getAllRecords() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Retrieves all the records managed by this MetricsContext.
getAllRecords() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Retrieves all the records managed by this MetricsContext.
getAllStaticResolutions() - 类 中的静态方法org.apache.hadoop.net.NetUtils
This is used to get all the resolutions that were added using NetUtils.addStaticResolution(String, String).
getAllStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Return the FileSystem classes that have Statistics
getAllTasks() - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
Returns all map and reduce tasks .
getAllTokens() - 类 中的方法org.apache.hadoop.security.Credentials
Return all the tokens in the in-memory map
getAncestorLayoutVersion() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
Accessor method for feature ancestor layout version
getApproxChkSumLength(long) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
 
getArchiveClassPaths(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Get the archive entries in classpath as an array of Path.
getArchiveTimestamps(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Get the timestamps of the archives.
getArchiveVisibilities(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Get the booleans on whether the archives are public or not.
getAssignedJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getAssignedTracker(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get tracker name for a given task id.
getAtomicWorkPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Get work path for atomic commit.
getAttemptID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the attempt id
getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the attempt id
getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the task attempt id
getAttempts() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getAttemptsToStartSkipping(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Get the number of Task attempts AFTER which skip mode will be kicked off.
getAttribute(String) - 类 中的方法org.apache.hadoop.http.HttpServer
Get the value in the webapp context.
getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
已过时。
Returns the value of the named attribute, or null if there is no attribute of that name.
getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Convenience method for subclasses to access factory attributes.
getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
已过时。
 
getAttribute(char) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptions.FileAttribute
 
getAttributeNames() - 类 中的方法org.apache.hadoop.metrics.ContextFactory
已过时。
Returns the names of all the factory's attributes.
getAttributes(String[]) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
已过时。
 
getAttributeTable(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Returns an attribute-value map derived from the factory attributes by finding all factory attributes that begin with contextName.
getAuthenticationHandler() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns the authentication handler being used.
getAuthenticationMethod() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Get the authentication method from the subject
getAutoIncrMapperProcCount(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Get the flag which if set to true, SkipBadRecords.COUNTER_MAP_PROCESSED_RECORDS is incremented by MapRunner after invoking the map function.
getAutoIncrReducerProcCount(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Get the flag which if set to true, SkipBadRecords.COUNTER_REDUCE_PROCESSED_GROUPS is incremented by framework after invoking the reduce function.
getAvailable() - 类 中的方法org.apache.hadoop.fs.DF
 
getAvailableMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get available map slots.
getAvailablePhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the total size of the available physical memory present in the system.
getAvailablePhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the total size of the available physical memory present in the system.
getAvailableReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get available reduce slots.
getAvailableSlots(TaskType) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Get the number of currently available slots on this tasktracker for the given type of the task.
getAvailableVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the total size of the available virtual memory present in the system.
getAvailableVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the total size of the available virtual memory present in the system.
getAvataar() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the avataar of the task attempt
getBalancerBandwidth() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Get current value of the max balancer bandwidth in bytes per second.
getBalancerBandwidth() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
 
getBalancerBandwidthValue() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
Get current value of the max balancer bandwidth in bytes per second.
getBalancerBandwidthVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
Get current value of the balancer bandwidth version.
getBandwidth() - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
 
getBaseLogDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
 
getBasePathInJarOut(String) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
 
getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
 
getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleSequenceFileOutputFormat
 
getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleTextOutputFormat
 
getBeginColumn() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
getBeginLine() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
getBlacklistedNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getBlacklistedNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getBlackListedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of blacklisted trackers in the cluster.
getBlacklistedTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the names of blacklisted task trackers in the cluster.
getBlacklistedTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the number of blacklisted task trackers in the cluster.
getBlock() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
getBlock() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
 
getBlock() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
get the block
getBlockCapacity() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getBlockFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Get File name for a given block.
getBlockGenStamp(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
The generation stamp of the indexTh block
getBlockId() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
getBlockId(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
The block-id of the indexTh block
getBlockIds() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
Return sorted array of blockIds this BlockTokenIdentifier includes
getBlockIndex(BlockLocation[], long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
 
getBlockIndex(BlockLocation[], long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
 
getBlockInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
Returns a block object that contains the specified block object from the specified Datanode.
getBlockInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Returns a block object that contains the specified block object from the specified Datanode.
getBlockInputStream(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getBlockInputStream(Block, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getBlockInputStream(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns an input stream to read the contents of the specified block
getBlockInputStream(Block, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns an input stream at specified offset of the specified block
getBlockKeys() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Get the current block keys
getBlockKeys() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
Get the current block keys
getBlockLen(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
The block-len of the indexTh block
getBlockLocalPathInfo(Block, Token<BlockTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
Retrieves the path names of the block file and metadata file stored on the local file system.
getBlockLocalPathInfo(Block, Token<BlockTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getBlockLocalPathInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getBlockLocalPathInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Get BlockLocalPathInfo for the given block.
getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Get block location info about file getBlockLocations() returns a list of hostnames that store data for a specific file region.
getBlockLocations(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get locations of the blocks of the specified file within the specified range.
getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Get block locations within the specified range.
getBlockLocations(String, long, long, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Get block locations within the specified range.
getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Get locations of the blocks of the specified file within the specified range.
getBlockMetaDataInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
getBlockMetaDataInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
 
getBlockName() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
getBlockPath() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
Get the Block data file.
getBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Return a table of block data.
getBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns the block report - the full list of blocks stored Returns only finalized blocks
getBlocks() - 类 中的方法org.apache.hadoop.fs.s3.INode
 
getBlocks(DatanodeInfo, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
return a list of blocks & their locations on datanode whose total size is size
getBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
 
getBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
getter
getBlocks(DatanodeInfo, long) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
Get a list of blocks belonged to datanode whose total size is equal to size
getBlocksBeingWrittenReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Return a table of blocks being written data
getBlocksBeingWrittenReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns the blocks being written report
getBlockSize() - 类 中的方法org.apache.hadoop.fs.FileStatus
Get the block size of the file.
getBlockSize(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
Use getFileStatus() instead
getBlockSize(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
getBlockSize() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the block size of the file.
getBlockSize() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
getBlockSize() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
Returns the blocksize parameter specified at construction time.
getBlocksScheduled() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
 
getBlocksTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Get the total number of blocks in the system.
getBlocksTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Number of allocated blocks in the system
getBlockToken() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
getBloomFilter() - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
Retrieve the Bloom filter used by this instance of the Reader.
getBoolean(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as a boolean.
getBoundAntProperty(String, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
getBoundingValsQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
 
getBroadcastCommand() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
getBuildVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getBuildVersion() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
Returns the full version string containing version, revision, user and source checksum.
getByName(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Resolves a host subject to the security requirements determined by hadoop.security.token.service.use_ip.
getByName(String) - 类 中的方法org.apache.hadoop.security.SecurityUtil.QualifiedHostResolver
Create an InetAddress with a fully qualified hostname of the given hostname.
getBytes() - 类 中的方法org.apache.hadoop.fs.FileChecksum
The value of the checksum in bytes
getBytes() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
The value of the checksum in bytes
getBytes() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
getBytes() - 类 中的方法org.apache.hadoop.hdfs.util.ByteArray
 
getBytes() - 类 中的方法org.apache.hadoop.io.BinaryComparable
Return representative byte array for this instance.
getBytes() - 类 中的方法org.apache.hadoop.io.BytesWritable
Get the data from the BytesWritable.
getBytes() - 类 中的方法org.apache.hadoop.io.Text
Returns the raw bytes; however, only data up to Text.getLength() is valid.
getBytes() - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
The raw bytes.
getBytes(String) - 类 中的静态方法org.apache.hadoop.io.UTF8
已过时。
Convert a string to a UTF-8 encoded byte array.
getBytes() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
Get the bytes for the token identifier
getBytes() - 类 中的方法org.apache.hadoop.util.bloom.Key
 
getBytesPerChecksum() - 类 中的方法org.apache.hadoop.util.DataChecksum
 
getBytesPerSec() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
Getter for the read-rate from this stream, since creation.
getBytesPerSum() - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Return the bytes Per Checksum
getBytesRead() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Get the total number of bytes read
getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
getBytesRead() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Return number of uncompressed bytes input so far.
getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Return number of bytes given to this compressor since last reset.
getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Returns the total number of compressed bytes input so far, including gzip header/trailer bytes.
getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
Returns the total number of uncompressed bytes input so far.
getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
Returns the total number of compressed bytes input so far.
getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
Return the total bytes that distCp should copy for the source paths This doesn't consider whether file is same should be skipped during copy
getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
Return the total bytes that distCp should copy for the source paths This doesn't consider whether file is same should be skipped during copy
getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
Return the total bytes that distCp should copy for the source paths This doesn't consider whether file is same should be skipped during copy
getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
Return the total bytes that distCp should copy for the source paths This doesn't consider whether file is same should be skipped during copy
getBytesWritten() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Get the total number of bytes written
getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
getBytesWritten() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Return number of compressed bytes output so far.
getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Return number of bytes consumed by callers of compress since last reset.
getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
Returns the total number of compressed bytes output so far.
getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
Returns the total number of uncompressed bytes output so far.
getCacheArchives(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Get cache archives set in the Configuration.
getCacheFiles(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Get cache files set in the Configuration.
getCacheSize() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Get the number of entries in the filesystem cache
getCallQueueLen() - 类 中的方法org.apache.hadoop.ipc.Server
The number of rpc calls in the queue.
getCandidates() - 枚举 中的方法org.apache.hadoop.tools.rumen.JobConfPropertyNames
 
getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.FileSystem
Get a canonical service name for this file system.
getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
 
getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
getCanonicalServiceName() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getCanonicalUri() - 类 中的方法org.apache.hadoop.fs.FileSystem
Resolve the uri's hostname and add the default port if not in the uri
getCanonicalUri(URI, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Resolve the uri's hostname and add the default port if not in the uri
getCapacity() - 类 中的方法org.apache.hadoop.fs.DF
 
getCapacity() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
 
getCapacity() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
The raw capacity.
getCapacity() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Return total capacity, used and unused
getCapacity() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
Returns total capacity (in bytes) of storage (used and unused)
getCapacity() - 类 中的方法org.apache.hadoop.io.BytesWritable
Get the capacity, which is the maximum size that could handled without resizing the backing storage.
getCapacity() - 类 中的方法org.apache.hadoop.record.Buffer
Get the capacity, which is the maximum count that could handled without resizing the backing storage.
getCapacityRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Total non-used raw bytes.
getCapacityRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Free (unused) storage capacity
getCapacityRemainingPercent() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Total remaining space by data nodes as percentage of total capacity
getCapacityTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Total raw bytes including non-dfs used space.
getCapacityTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Total storage capacity
getCapacityUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Total used space by data nodes
getCapacityUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Used storage capacity
getCapacityUsedNonDFS() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Total used space by data nodes for non DFS purposes such as storing temporary files on the local file system
getCapacityUsedPercent() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Total used space by data nodes as percentage of total capacity
getCategory(List<List<Pentomino.ColumnName>>) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
Find whether the solution has the x in the upper left quadrant, the x-midline, the y-midline or in the center.
getChannel() - 类 中的方法org.apache.hadoop.net.SocketInputStream
Returns underlying channel used by inputstream.
getChannel() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
Returns underlying channel used by this stream.
getChannelPosition(Block, FSDatasetInterface.BlockWriteStreams) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Retrieves the offset in the block to which the the next write will write data to.
getChannelPosition(Block, FSDatasetInterface.BlockWriteStreams) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns the current offset in the data stream.
getChecksum() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
Get the version
getChecksumFile(Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Return the name of the checksum file associated with a file.
getChecksumFileLength(Path, long) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Return the length of the checksum file given the size of the actual file.
getChecksumHeaderSize() - 类 中的静态方法org.apache.hadoop.util.DataChecksum
 
getChecksumLength(long, int) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
Calculated the length of the checksum file in bytes.
getChecksumSize() - 类 中的方法org.apache.hadoop.util.DataChecksum
 
getChecksumType() - 类 中的方法org.apache.hadoop.util.DataChecksum
 
getChildren() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
 
getChildren() - 类 中的方法org.apache.hadoop.tools.rumen.Node
Get the children of this node.
getChunkPosition(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Return position of beginning of chunk containing pos.
getChunkPosition(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
getClass(String, Class<?>) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as a Class.
getClass(String, Class<? extends U>, Class<U>) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as a Class implementing the interface specified by xface.
getClass(byte) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
 
getClass(String, Configuration) - 类 中的静态方法org.apache.hadoop.io.WritableName
Return the class for a name.
getClass(T) - 类 中的静态方法org.apache.hadoop.util.GenericsUtil
Returns the Class object (of type Class<T>) of the argument of type T.
getClass(T) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
Return the correctly-typed Class of the given object.
getClassByName(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Load a class by name.
getClassByName(String) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
 
getClasses(String, Class<?>...) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as an array of Class.
getClassLoader() - 类 中的方法org.apache.hadoop.conf.Configuration
Get the ClassLoader for this job.
getClassName() - 异常错误 中的方法org.apache.hadoop.ipc.RemoteException
 
getClassPaths() - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
Retrieves class paths (as local references) to add.
getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
Get the information of the current state of the cleanup tasks of a job.
getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getClient() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getClientInput() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
Returns the DataInput from which the client output is read.
getClientOutput() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
Returns the DataOutput to which the client input is written.
getClientVersion() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
Get the client's preferred version
getClock() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getClosest(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Finds the record that is the closest match to the specified key.
getClosest(WritableComparable, Writable, boolean) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Finds the record that is the closest match to the specified key.
getClusterMapMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getClusterMetrics() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getClusterNick() - 类 中的方法org.apache.hadoop.streaming.StreamJob
已过时。
getClusterReduceMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getClusterStatus() - 类 中的方法org.apache.hadoop.mapred.JobClient
Get status information about the Map-Reduce cluster.
getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.JobClient
Get status information about the Map-Reduce cluster.
getClusterStatus() - 类 中的方法org.apache.hadoop.mapred.JobTracker
getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getClusterTopology() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Get the cluster topology tree.
getClusterTopology() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieCluster
 
getCodec(Path) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
Find the relevant compression codec for the given file based on its filename suffix.
getCodecByClassName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
Find the relevant compression codec for the codec's canonical class name.
getCodecByName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
Find the relevant compression codec for the codec's canonical class name or by codec alias.
getCodecClassByName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
Find the relevant compression codec for the codec's canonical class name or by codec alias and returns its implemetation class.
getCodecClasses(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
Get the list of codecs listed in the configuration
getCollector(String, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
Gets the output collector for a named output.
getCollector(String, String, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
Gets the output collector for a multi named output.
getColumnName(int) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Get the name of a given column as a string
getCombineInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getCombinerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the user-defined combiner class used to combine map-outputs before being sent to the reducers.
getCombinerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the combiner class for the job.
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
 
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
 
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
 
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
 
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
 
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
 
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
 
getCombinerOutput() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
 
getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
 
getCommandLine() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
Returns the commons-cli CommandLine object to process the parsed arguments.
getCommandName() - 类 中的方法org.apache.hadoop.fs.shell.Command
Return the command's name excluding the leading character -
getCommandName() - 类 中的方法org.apache.hadoop.fs.shell.Count
 
getCommitDirectory(Job) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
Getter for the final commit-directory.
getComparator() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get an instance of the RawComparator that is constructed based on the string comparator representation.
getComparator() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Return comparator defining the ordering for RecordReaders in this composite.
getComparatorName() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get the string representation of the comparator.
getCompressedData() - 类 中的方法org.apache.hadoop.io.compress.BlockDecompressorStream
 
getCompressedData() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
getCompressionCodec() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns the compression codec of data in this file.
getCompressionCodec() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
Returns the compression codec of data in this file.
getCompressionLevel(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
 
getCompressionStrategy(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
 
getCompressionType(Configuration) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
getCompressMapOutput() - 类 中的方法org.apache.hadoop.mapred.JobConf
Are the outputs of the maps be compressed?
getCompressor(CompressionCodec, Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
Get a Compressor for the given CompressionCodec from the pool or a new one.
getCompressor(CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
 
getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
This functionality is currently not supported.
getCompressorType() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Get the type of Compressor needed by this CompressionCodec.
getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Get the type of Compressor needed by this CompressionCodec.
getCompressOutput(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Is the job output compressed?
getCompressOutput(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Is the job output compressed?
getComputonsPerMapInputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getComputonsPerMapOutputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getComputonsPerReduceInputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getComputonsPerReduceOutputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getConditions() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
getConf() - 接口 中的方法org.apache.hadoop.conf.Configurable
Return the configuration used by this object.
getConf() - 类 中的方法org.apache.hadoop.conf.Configured
 
getConf() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
 
getConf() - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
return this balancer's configuration
getConf() - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
 
getConf() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
getConf() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Return the configuration used by this object.
getConf() - 类 中的方法org.apache.hadoop.io.GenericWritable
 
getConf() - 类 中的方法org.apache.hadoop.io.ObjectWritable
 
getConf() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Returns a handle to the JobTracker's Configuration
getConf() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Return the configuration used by this object.
getConf() - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
 
getConf() - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.FilterBase
 
getConf() - 类 中的方法org.apache.hadoop.mapred.Task
 
getConf() - 类 中的方法org.apache.hadoop.mapred.TaskController
 
getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
 
getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.FilterBase
 
getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
 
getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
 
getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
 
getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
 
getConf() - 类 中的方法org.apache.hadoop.net.ScriptBasedMapping
 
getConf() - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
getConf() - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
 
getConf() - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
 
getConf() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
getConf() - 类 中的方法org.apache.hadoop.tools.DistCp
 
getConf() - 类 中的方法org.apache.hadoop.tools.HadoopArchives
 
getConf() - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
 
getConf() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
getConfigLabel() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
Get Configuration label for the option
getConfiguration() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the underlying configuration object.
getConfiguration(String, FilterConfig) - 类 中的方法org.apache.hadoop.hdfs.web.AuthFilter
Returns the filter configuration properties, including the ones prefixed with AuthFilter.CONF_PREFIX.
getConfiguration() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Return the configuration for the job.
getConfiguration(String, FilterConfig) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns the filtered configuration (only properties starting with the specified prefix).
getConfiguration() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
Returns the Configuration.
getConfiguration() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
Get the modified configuration
getConfigVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getConfigVersion() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getConfigVersion() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getConfigVersion() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
getConfirmationNeeded() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
getConfResourceAsInputStream(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get an input stream attached to the configuration resource with the given name.
getConfResourceAsReader(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get a Reader attached to the configuration resource with the given name.
getConnectAddress(Server) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Returns InetSocketAddress that a client can use to connect to the server.
getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Returns a connection object o the DB
getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
 
getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
 
getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
getContentSummary(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Return the ContentSummary of a given Path.
getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Return the ContentSummary of a given Path.
getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
Return the ContentSummary of a given Path.
getContentSummary(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get ContentSummary rooted at the specified directory.
getContentSummary(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Get ContentSummary rooted at the specified directory.
getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getContext(String, String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
已过时。
Returns the named MetricsContext instance, constructing it if necessary using the factory's current configuration attributes.
getContext(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
已过时。
 
getContext(String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
已过时。
 
getContext(String, String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
已过时。
Utility method to return the named context.
getContext() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
 
getContextFactory() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Returns the factory by which this context was created.
getContextName() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Returns the context name.
getContextName() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Returns the context name.
getCookieDomain() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns the cookie domain to use for the HTTP cookie.
getCookiePath() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns the cookie path to use for the HTTP cookie.
getCopyListing(Configuration, Credentials, DistCpOptions) - 类 中的静态方法org.apache.hadoop.tools.distcp2.CopyListing
Public Factory method with which the appropriate CopyListing implementation may be retrieved.
getCopyStrategy() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Get the copy strategy to use.
getCorruptBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Returns count of blocks with at least one replica marked corrupt.
getCorruptBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Returns count of blocks with at least one replica marked corrupt.
getCorruptReplicaBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Returns number of blocks with corrupt replicas
getCount() - 类 中的方法org.apache.hadoop.record.Buffer
Get the current count of the buffer.
getCounter() - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
What is the current value of this counter?
getCounter(Enum) - 类 中的方法org.apache.hadoop.mapred.Counters
Returns current value of the specified counter, or 0 if the counter does not exist.
getCounter(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Returns the value of the specified counter, or 0 if the counter does not exist.
getCounter(int, String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
已过时。
getCounter(Enum<?>) - 接口 中的方法org.apache.hadoop.mapred.Reporter
Get the Counters.Counter of the given group with the given name.
getCounter(String, String) - 接口 中的方法org.apache.hadoop.mapred.Reporter
Get the Counters.Counter of the given group with the given name.
getCounter(String, String) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
 
getCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
 
getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
 
getCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
 
getCounterForName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Get the counter for the given name and create it if it doesn't exist.
getCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Returns the total job counters, by adding together the job, the map and the reduce counters.
getCounters() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Gets the counters for this job.
getCounters() - 类 中的方法org.apache.hadoop.mapred.TaskReport
A table of counters.
getCounters() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get task's counters.
getCounters() - 类 中的方法org.apache.hadoop.mapreduce.Job
Gets the counters for this job.
getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the counters
getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the counters for the attempt
getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the counters for the attempt
getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
Get task counters
getCountersEnabled(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Returns if the counters for the named outputs are enabled or not.
getCountersEnabled(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Returns if the counters for the named outputs are enabled or not.
getCountQuery() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
Returns the query for getting the total number of rows, subclasses can override this for custom behaviour.
getCountQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
Returns the query for getting the total number of rows, subclasses can override this for custom behaviour.
getCpuFrequency() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the CPU frequency of on the system.
getCpuFrequency() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the CPU frequency of on the system.
getCpuUsage() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the CPU usage % of the machine.
getCpuUsage() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the CPU usage % of the machine.
getCredentials() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get credentials for the job.
getCredentials() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get credentials for the job.
getCredentials() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
get credentials to update the delegation tokens for accessed FS objects
getCTime() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
 
getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the cumulative CPU time since the system is on.
getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Get the CPU time in millisecond used by all the processes in the process-tree since the process-tree created
getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the cumulative CPU time since the system is on.
getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
Obtain the cumulative CPU time used by a current process tree.
getCumulativeCpuUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Get the cumulative CPU usage.
getCumulativeRssmem() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Get the cumulative resident set size (rss) memory used by all the processes in the process-tree.
getCumulativeRssmem(int) - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Get the cumulative resident set size (rss) memory used by all the processes in the process-tree that are older than the passed in age.
getCumulativeVmem() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Get the cumulative virtual memory used by all the processes in the process-tree.
getCumulativeVmem(int) - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Get the cumulative virtual memory used by all the processes in the process-tree that are older than the passed in age.
getCurrentBlock() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
Returns the block containing the target position.
getCurrentBlock() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
Returns the block containing the target position.
getCurrentDatanode() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
Returns the datanode from which the stream is currently reading.
getCurrentDatanode() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
Returns the datanode from which the stream is currently reading.
getCurrentDir() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Directory current contains latest files defining the file system meta-data.
getCurrentIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
已过时。
The Value at the current interval
getCurrentIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
已过时。
The Value at the current interval
getCurrentKey() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
Get the current key
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
Get the current key
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
 
getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
Get the current key.
getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
Returns the current key.
getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
 
getCurrentKey() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
Implementation of RecordReader::getCurrentKey().
getCurrentLayoutVersion() - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
Get the current layout version
getCurrentSegmentGeneration(Directory) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
Get the generation (N) of the current segments_N file in the directory.
getCurrentSplit(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
getCurrentStatus() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
getCurrentStatus() - 类 中的方法org.apache.hadoop.mapred.TaskReport
The current status
getCurrentTrashDir() - 类 中的方法org.apache.hadoop.fs.FsShell
Returns the Trash object associated with this shell.
getCurrentUser() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Return the current user, including any doAs in the current stack.
getCurrentValue(Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Get the 'value' corresponding to the last read 'key'.
getCurrentValue(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Get the 'value' corresponding to the last read 'key'.
getCurrentValue(V) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
Get the current value.
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
Get the current value.
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
 
getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
Get the current value.
getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
Returns the current value.
getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
 
getCurrentValue() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
Implementation of RecordReader::getCurrentValue().
getData() - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
 
getData() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
 
getData() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
Returns the current contents of the buffer.
getData() - 类 中的方法org.apache.hadoop.io.OutputBuffer
Returns the current contents of the buffer.
getDataNode() - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Return the DataNode object
getDatanode() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
 
getDatanode(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Get data node by storage ID.
getDataNodeInfo(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getDatanodeListForReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getDatanodeReport(FSConstants.DatanodeReportType) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get a report on the system's current datanodes.
getDatanodeReport() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
A formatted string for reporting the status of the DataNode.
getDatanodeReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getDatanodes() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
get the block's locations
getDataNodeStats() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
Return statistics for each datanode.
getDataNodeStats() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Return statistics for each datanode.
getDate() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
The date that Hadoop was compiled.
getDateFormat() - 类 中的静态方法org.apache.hadoop.hdfs.HftpFileSystem
 
getDatum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
 
getDatumAt(int) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
 
getDBConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
 
getDBConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
getDBProductName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
 
getDeadNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Returned information is a JSON representation of map with host name as the key and value is a map of dead node attribute keys to its values
getDeadNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the dead node information of the cluster.
getDeclaredClass() - 类 中的方法org.apache.hadoop.io.ObjectWritable
Return the class this is meant to be.
getDecommissionedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of decommissioned trackers in the cluster.
getDecommissioningNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getDecomNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Returned information is a JSON representation of map with host name as the key and value is a map of decomisioning node attribute keys to its values
getDecomNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the decommissioning node information of the cluster.
getDecompressor(CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
Get a Decompressor for the given CompressionCodec from the pool or a new one.
getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
This functionality is currently not supported.
getDecompressorType() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Get the type of Decompressor needed by this CompressionCodec.
getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Get the type of Decompressor needed by this CompressionCodec.
getDefault() - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
Get the default permission.
getDefaultAuthenticator() - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
Returns the default Authenticator class to use when an AuthenticatedURL instance is created without specifying an authenticator.
getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
getDefaultBlockSize(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Return the number of bytes that large input files should be optimally be split into to minimize i/o time.
getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Return the number of bytes that large input files should be optimally be split into to minimize i/o time.
getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Get the default block size for this cluster
getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getDefaultChunkSize(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
Get the default chunk size.
getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
.bz2 is recognized as the default extension for compressed BZip2 files
getDefaultExtension() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
Get the default filename extension for this kind of compression.
getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
 
getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Get the default filename extension for this kind of compression.
getDefaultHost(String, String) - 类 中的静态方法org.apache.hadoop.net.DNS
Returns the default (first) host name associated by the provided nameserver with the address bound to the specified network interface
getDefaultHost(String) - 类 中的静态方法org.apache.hadoop.net.DNS
Returns the default (first) host name associated by the default nameserver with the address bound to the specified network interface
getDefaultIP(String) - 类 中的静态方法org.apache.hadoop.net.DNS
Returns the first available IP address associated with the provided network interface
getDefaultMaps() - 类 中的方法org.apache.hadoop.mapred.JobClient
Get status information about the max available Maps in the cluster.
getDefaultPort() - 类 中的方法org.apache.hadoop.fs.FileSystem
Get the default port for this file system.
getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
 
getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getDefaultRealm() - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
 
getDefaultRealm() - 类 中的方法org.apache.hadoop.security.KerberosName
Get the configured default realm.
getDefaultReduces() - 类 中的方法org.apache.hadoop.mapred.JobClient
Get status information about the max available Reduces in the cluster.
getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
getDefaultReplication(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Get the default replication.
getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Get the default replication.
getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getDefaultRetryPolicy(Configuration, String, boolean, String, String, Class<? extends Exception>...) - 类 中的静态方法org.apache.hadoop.io.retry.RetryUtils
Return the default retry policy set in conf.
getDefaultSocketFactory(Configuration) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Get the default socket factory as specified by the configuration parameter hadoop.rpc.socket.factory.default
getDefaultUri(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Get the default filesystem URI from a configuration.
getDefaultWebUser(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
If security is turned off, what is the default web user?
getDefaultWorkFile(TaskAttemptContext, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Get the default path and filename for the output format.
getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Obtain an iterator over the child RRs apropos of the value type ultimately emitted from this join.
getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader
Return an iterator wrapping the JoinCollector.
getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
Return an iterator returning a single value from the tuple.
getDelegationToken(String) - 类 中的方法org.apache.hadoop.fs.FileSystem
Get a new delegation token for this file system.
getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
已过时。
getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getDelegationToken(Text) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get a valid Delegation Token.
getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.JobClient
 
getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get a new delegation token.
getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getDelegationToken(Credentials, String) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
 
getDelegationTokens(Configuration, Credentials) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
For each archive or cache file - get the corresponding delegation token
getDelegationTokenSecretManager() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Returns the DelegationTokenSecretManager instance in the namesystem.
getDelegationTokenSecretManager() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
GetDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
Serve delegation tokens over http for use in hftp.
GetDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
 
getDelegationTokenUrlParam(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
Returns the url parameter for the given token string.
getDependentJobs() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
getDependingJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getDescription() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
Accessor method for feature description
getDescription() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
Description of the upgrade object for displaying.
getDescription() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
 
getDescription() - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
已过时。
 
getDeserializer(Class<Serializable>) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerialization
 
getDeserializer(Class<T>) - 接口 中的方法org.apache.hadoop.io.serializer.Serialization
 
getDeserializer(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
 
getDeserializer(Class<Writable>) - 类 中的方法org.apache.hadoop.io.serializer.WritableSerialization
 
getDFS() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
 
getDFSClient(UserGroupInformation, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
getDFSClient(HttpServletRequest) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.StreamFile
getting a client for connecting to dfs
getDFSNameNodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
已过时。
getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
 
getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
The used space by the data node.
getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Return the total space used by dfs datanode
getDfsUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
Returns the total space (in bytes) used by dfs datanode
getDfsUsedPercent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
The used space by the data node as percentage of present capacity
getDiagnosticInfo() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getDiagnostics() - 类 中的方法org.apache.hadoop.mapred.TaskReport
A list of error messages.
getDigest() - 类 中的方法org.apache.hadoop.io.MD5Hash
Returns the digest bytes.
getDigester() - 类 中的静态方法org.apache.hadoop.io.MD5Hash
Create a thread local MD5 digester
getDirectDependantJobs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getDirectory() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
Get the ram directory of the intermediate form.
getDirectory() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
Get the directory where this shard resides.
getDirectoryCount() - 类 中的方法org.apache.hadoop.fs.ContentSummary
 
getDirFailures() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the number of local directories that have failed on this tracker.
getDirPath() - 类 中的方法org.apache.hadoop.fs.DF
 
getDirPath() - 类 中的方法org.apache.hadoop.fs.DU
 
getDiskStatus() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
getDiskStatus() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Return the disk usage of the filesystem, including total capacity, used space, and remaining space
getDisplayName() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Returns localized name of the group.
getDisplayName() - 类 中的方法org.apache.hadoop.mapreduce.Counter
Get the name of the counter.
getDisplayName() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
Get the display name of the group.
getDistance(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Return the distance between two nodes It is assumed that the distance from one node to its parent is 1 The distance between two nodes is calculated by summing up their distances to their closest common ancestor.
getDistributedUpgrades() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
getDistributedUpgrades(int, HdfsConstants.NodeType) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.UpgradeObjectCollection
 
getDistributedUpgradeVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
 
getDistributionPolicyClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the distribution policy class.
getDmax(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
getDocument() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Get the document.
getDocumentAnalyzerClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the analyzer class.
getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
 
getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
 
getDoOutput() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
 
getDoOutput() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
 
getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
 
getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
 
getDoubleValue(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
 
getDTfromRemote(String, InetSocketAddress, String, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
Utility method to obtain a delegation token over http
getDU(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Takes an input dir and returns the du on that local directory.
getEditLog() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
getEditLogSize() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Returns the size of the current edit log.
getEditLogSize() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
Get the size of the current edit log (in bytes).
getElementTypeID() - 类 中的方法org.apache.hadoop.record.meta.VectorTypeID
 
getEmptier() - 类 中的方法org.apache.hadoop.fs.Trash
Return a Runnable that periodically empties the trash of all users, intended to be run by the superuser.
getEnd() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
 
getEnd() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
 
getEndColumn() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
getEndLine() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
getEntry(MapFile.Reader[], Partitioner<K, V>, K, V) - 类 中的静态方法org.apache.hadoop.mapred.MapFileOutputFormat
Get an entry from output generated by this class.
getEntryComparator() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get a Comparator object to compare Entries.
getEntryCount() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get the number of key-value pair entries in TFile.
getEnum(String, T) - 类 中的方法org.apache.hadoop.conf.Configuration
Return value matching this enumerated type.
getErrno() - 异常错误 中的方法org.apache.hadoop.io.nativeio.NativeIOException
 
getError() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
 
getError() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the error string
getError() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
Get the error string
getEventId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Returns event Id.
getEventType() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent
getEventType() - 接口 中的方法org.apache.hadoop.tools.rumen.HistoryEvent
Return this event's type.
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
 
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
 
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
Get event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
Get the event type
getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
Get the event type
getExceptions() - 异常错误 中的方法org.apache.hadoop.io.MultipleIOException
 
getExcessBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getExcludedHosts() - 类 中的方法org.apache.hadoop.util.HostsFileReader
 
getExecString() - 类 中的方法org.apache.hadoop.fs.DF
 
getExecString() - 类 中的方法org.apache.hadoop.fs.DU
 
getExecString() - 类 中的方法org.apache.hadoop.util.Shell
return an array containing the command name & its parameters
getExecString() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
 
getExecutable(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Get the URI of the application's executable.
getExitCode() - 异常错误 中的方法org.apache.hadoop.util.Shell.ExitCodeException
 
getExitCode() - 类 中的方法org.apache.hadoop.util.Shell
get the exit code
getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
 
getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
 
getExpectedHttpResponseCode() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
 
getExpectedHttpResponseCode() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
Override the original expected response with "Temporary Redirect".
getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
 
getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
 
getExpires() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Returns the expiration time of the token.
getExpiryDate() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
getExpiryDate() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
 
getExportedKeys() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
 
getFactor() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Get the number of streams to merge at once.
getFactory(Class) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
Define a factory for a class.
getFactory() - 类 中的静态方法org.apache.hadoop.metrics.ContextFactory
已过时。
Returns the singleton ContextFactory instance, constructing it if necessary.
getFailedAttemptID() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
Get the attempt id due to which the task failed
getFailedJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
 
getFailedJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
 
getFailedMapAttemptCDFs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getFailedMapperFraction() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getFailedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the number of failed maps for the job
getFailedReduceAttemptCDF() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getFailedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the number of failed reducers for the job
getFailureInfo() - 类 中的方法org.apache.hadoop.mapred.JobStatus
gets any available info on the reason of failure of the job.
getFailureInfo() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get failure info for the job.
getFallBackAuthenticator() - 类 中的方法org.apache.hadoop.hdfs.web.KerberosUgiAuthenticator
 
getFallBackAuthenticator() - 类 中的方法org.apache.hadoop.security.authentication.client.KerberosAuthenticator
If the specified URL does not support SPNEGO authentication, a fallback Authenticator will be used.
getFatal() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
 
getFetchFailedMaps() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get the list of maps from which output-fetches failed.
getFieldID() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
get the field's id (name)
getFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
Get common storage fields.
getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
 
getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
 
getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
Returns the field separator to be used.
getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
 
getFieldTypeInfos() - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
Return a collection of field type infos
getFieldTypeInfos() - 类 中的方法org.apache.hadoop.record.meta.StructTypeID
 
getFile(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get a local file name under a directory named in dirsProp with the given path.
getFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Turn the block identifier into a filename.
getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
Return an array containing hostnames, offset and size of portions of the given file.
getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
 
getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
Get block locations from the underlying fs and fix their offsets and lengths.
getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
Return null if the file doesn't exist; otherwise, get the locations of the various chunks of the file file from KFS.
getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getFileBlockLocations(FileSystem, FileStatus) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
 
getFileBytesRead() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getFileBytesWritten() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Get the checksum of a file.
getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Get the checksum of a file.
getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
getFileChecksum(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Get the checksum of a file.
getFileChecksum(String, ClientProtocol, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
Get the checksum of a file.
getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Get the checksum of a file.
getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
Get the checksum of a file.
getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getFileClassPaths(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Get the file entries in classpath as an array of Path.
getFileCount() - 类 中的方法org.apache.hadoop.fs.ContentSummary
 
getFileDescriptor() - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
getFileDescriptor() - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
 
getFileDescriptor() - 接口 中的方法org.apache.hadoop.fs.HasFileDescriptor
 
getFileInfo(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
getFileInfo(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get the file info for a specific file or directory.
getFileInfo(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Get the file info for a specific file.
getFileLength() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
 
getFileLength() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
 
getFileListingPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
Get default name of the copy listing file.
getFileName() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
已过时。
Returns the configured file name, or null.
getFiles(PathFilter) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
已过时。
 
getFileSize(Path, Configuration) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Retrieves size of the file at the specified path.
getFileStatus(Configuration, URI) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Returns FileStatus of a given cache file on hdfs.
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Return a file status object that represents the path.
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Get file status.
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
return the filestatus of files in har archive.
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
FileStatus for S3 file systems.
getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
Returns the stat information about the file.
getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Returns the stat information about the file.
getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getFilesTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getFilesTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Total number of files and directories
getFilesystem() - 类 中的方法org.apache.hadoop.fs.DF
 
getFileSystem(Configuration) - 类 中的方法org.apache.hadoop.fs.Path
Return the FileSystem that owns this Path.
getFileSystemCounterNames(String) - 类 中的静态方法org.apache.hadoop.mapred.Task
Counters to measure the usage of the different file systems.
getFilesystemName() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Grab the local fs name
getFilesystemName() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getFileTimestamps(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Get the timestamps of the files.
getFileType() - 类 中的方法org.apache.hadoop.fs.s3.INode
 
getFileVisibilities(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Get the booleans on whether the files are public or not.
getFinalizedTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
finalized.tmp is a transient directory, which holds the previous file system state while it is being removed in response to the finalize request.
getFinalSync(JobConf) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraOutputFormat
Does the user want a final sync at close?
getFinishedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the number of finished maps for the job
getFinishedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
Get the number of finished maps
getFinishedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the number of finished reducers for the job
getFinishedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
Get the number of finished reduces
getFinishTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskReport
Get finish time of task.
getFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get task finish time. if shuffleFinishTime and sortFinishTime are not set before, these are set to finishTime.
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the job finish time
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
Get the job finish time
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the attempt finish time
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the finish time of the attempt
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the attempt finish time
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the finish time
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
Get the finish time of the attempt
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
Get the task finish time
getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
Get the task finish time
getFirst() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
 
getFirstHalf(String) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
Divide networklocation string into two parts by last separator, and get the first part here.
getFirstKey() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get the first key in the TFile.
getFlippable() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
 
getFloat(String, float) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as a float.
getForce() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
getFormatMinSplitSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Get the lower bound on split size imposed by the format.
getFormatMinSplitSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
 
getFormattedTimeWithDiff(DateFormat, long, long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Formats time in ms and appends difference (finishTime - startTime) as returned by formatTimeDiff().
getFormatter() - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
 
getFree() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getFree() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets total non-used raw bytes.
getFS() - 类 中的方法org.apache.hadoop.fs.FsShell
 
getFs() - 类 中的方法org.apache.hadoop.mapred.JobClient
Get a filesystem handle.
getFSDataset() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
This method is used for testing.
getFsEditName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
getFSImage() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getFsImageName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Returns the name of the fsImage file
getFsImageNameCheckpoint() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Returns the name of the fsImage file uploaded by periodic checkpointing
getFSNamesystem() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Return the FSNamesystem object
getFSNamesystem() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
 
getFsPermission() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PermissionParam
 
getFSSize() - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
已过时。
 
getFSState() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getFSState() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
The state of the file system: Safemode or Operational
getFsStatistics(Path, Configuration) - 类 中的静态方法org.apache.hadoop.mapred.Task
Gets a handle to the Statistics instance based on the scheme associated with path.
getFullName(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the string representation of the full path name
getFullPath(Path) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the full path
getFullPathName() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSInodeInfo
a string representation of an inode
getGangliaConfForMetric(String) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
Lookup GangliaConf from cache.
getGeneration() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
Get the generation of the Lucene instance.
getGenerationStamp() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
getGenerationStamp() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Gets the generation stamp for this filesystem
getGET_PERMISSION_COMMAND() - 类 中的静态方法org.apache.hadoop.util.Shell
Return a Unix command to get permission information.
getGraylistedNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getGraylistedNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getGrayListedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of graylisted trackers in the cluster.
getGraylistedTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the names of graylisted task trackers in the cluster.
getGraylistedTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the number of graylisted task trackers in the cluster.
getGroup() - 类 中的方法org.apache.hadoop.fs.FileStatus
Get the group associated with the file.
getGroup() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the group associated with the file.
getGroup(String) - 类 中的方法org.apache.hadoop.mapred.Counters
Returns the named counter group, or an empty group if there is none with the specified name.
getGroup(String) - 类 中的方法org.apache.hadoop.mapreduce.Counters
Returns the named counter group, or an empty group if there is none with the specified name.
getGroupAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
Return group FsAction.
getGroupingComparator() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the user defined RawComparator comparator for grouping keys of inputs to the reduce.
getGroupName() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
Return group name
getGroupNames() - 类 中的方法org.apache.hadoop.mapred.Counters
Returns the names of all counter classes.
getGroupNames() - 类 中的方法org.apache.hadoop.mapreduce.Counters
Returns the names of all counter classes.
getGroupNames() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Get the group names for this user.
getGroups(String) - 类 中的方法org.apache.hadoop.security.Groups
Get the group memberships of a given user.
getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMapping
 
getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
 
getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
Gets unix groups and netgroups for the user.
getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
 
getGroups(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsMapping
 
getGroups(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
getGroupsCommand() - 类 中的静态方法org.apache.hadoop.util.Shell
a Unix command to get the current user's groups list
getGroupsForUserCommand(String) - 类 中的静态方法org.apache.hadoop.util.Shell
a Unix command to get a given user's groups list
getHadoopClientHome() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
getHarHash(Path) - 类 中的静态方法org.apache.hadoop.fs.HarFileSystem
the hash of the path p inside iniside the filesystem
getHarVersion() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
getHashType(Configuration) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
This utility method converts the name of the configured hash type to a symbolic constant.
getHdfsBytesRead() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getHdfsBytesWritten() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getHeader(boolean) - 类 中的静态方法org.apache.hadoop.fs.ContentSummary
Return the header of the output.
getHeader() - 类 中的方法org.apache.hadoop.util.DataChecksum
 
getHealthStatus() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Returns health status of the task tracker.
getHeapMegabytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getHeapUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Get the total heap usage.
getHints(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
已过时。
Use getBlockLocations instead Get hints about the location of the indicated block(s). getHints() returns a list of hostnames that store data for a specific file region. It returns a set of hostnames for every block within the indicated region. This function is very useful when writing code that considers data-placement when performing operations. For example, the MapReduce system tries to schedule tasks on the same machines as the data-block the task processes.
getHistoryFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
Given the job id, return the history file path from the cache
getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.FileSystem
Return the current user's home directory in this filesystem.
getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
 
getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
return the top level archive path.
getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
getHomeDirectory() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Return the current user's home directory in this filesystem.
getHomeDirectory() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getHomeDirectoryString(UserGroupInformation) - 类 中的静态方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getHost() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
getHost() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
 
getHost() - 类 中的方法org.apache.hadoop.streaming.Environment
 
getHostAddress() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
 
getHostFromPrincipal(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Get the host name from the principal name of format /host@realm.
getHostInetAddress() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
 
getHostName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
getHostName() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getHostName() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
 
getHostName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getHostName() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
 
getHostname() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getHostname() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getHostname() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getHostname() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
getHostName() - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
getHostName() - 类 中的方法org.apache.hadoop.security.KerberosName
Get the second component of the name.
getHostName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the host name
getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the name of the host where the attempt ran
getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the host where the attempt executed
getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the name of the host where the attempt executed
getHostname() - 类 中的静态方法org.apache.hadoop.util.StringUtils
Return hostname without throwing exception.
getHosts() - 类 中的方法org.apache.hadoop.fs.BlockLocation
Get the list of hosts (hostname) hosting this block
getHosts(String, String) - 类 中的静态方法org.apache.hadoop.net.DNS
Returns all the host names associated by the provided nameserver with the address bound to the specified network interface
getHosts(String) - 类 中的静态方法org.apache.hadoop.net.DNS
Returns all the host names associated by the default nameserver with the address bound to the specified network interface
getHosts() - 类 中的方法org.apache.hadoop.util.HostsFileReader
 
getHttpAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Returns the address of the NameNodes http server, which is used to access the name-node web UI.
getHttpAddress(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
 
getHttpPort() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getHttpPort() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
Gets the http port.
getHttpPort() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getHttpPort() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
getHttpPort() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the port that this task tracker is serving http requests on.
getHttpPort() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the HTTP port
getHttpUriScheme() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getId() - 类 中的方法org.apache.hadoop.fs.s3.Block
 
getId(Class) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
 
getID() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the job identifier.
getId() - 类 中的方法org.apache.hadoop.mapreduce.ID
returns the int which represents the identifier
getIdentifier(String, SecretManager<T>) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
 
getIdentifier() - 类 中的方法org.apache.hadoop.security.token.Token
Get the token identifier
GetImage() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
GetImageServlet - org.apache.hadoop.hdfs.server.namenode中的类
This class is used in Namesystem's jetty to retrieve a file.
GetImageServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.GetImageServlet
 
getIncludeCounters() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getIndexInputFormatClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the index input format class.
getIndexInterval() - 类 中的方法org.apache.hadoop.io.MapFile.Writer
The number of entries that are added before an index entry is added.
getIndexMaxFieldLength() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the max field length for a Lucene instance.
getIndexMaxNumSegments() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the max number of segments for a Lucene instance.
getIndexShards() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the string representation of a number of shards.
getIndexShards(IndexUpdateConfiguration) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
 
getIndexUpdaterClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the index updater class.
getIndexUseCompoundFile() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Check whether to use the compound file format for a Lucene instance.
getInfo() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
 
getInfoAddr(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Determine the http server's effective addr
getInfoPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
getInfoPort() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getInfoServer(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getInjectable(ComponentContext, Context, Type) - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
 
getInodeLimitText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
getInputBoundingQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
 
getInputClass() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputConditions() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputCountQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputDataLength() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
getInputDataLength() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
getInputFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputFileBasedOutputFileName(JobConf, String) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
Generate the outfile name based on a given anme and the input file name.
getInputFormat() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the InputFormat implementation for the map-reduce job, defaults to TextInputFormat if not specified explicity.
getInputFormatClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the InputFormat class for the job.
getInputOrderBy() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputPathFilter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
Get a PathFilter instance of the filter set for the input paths.
getInputPathFilter(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Get a PathFilter instance of the filter set for the input paths.
getInputPaths(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
Get the list of input Paths for the map-reduce job.
getInputPaths(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Get the list of input Paths for the map-reduce job.
getInputQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
 
getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
 
getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
Returns the input separator to be used.
getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
 
getInputSplit() - 接口 中的方法org.apache.hadoop.mapred.Reporter
Get the InputSplit object for a map.
getInputSplit() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
getInputSplit() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
Get the input split for this map.
getInputSplits() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the input splits for the job.
getInputSplits() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getInputStream() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
 
getInputStream(Socket) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Same as getInputStream(socket, socket.getSoTimeout()).
getInputStream(Socket, long) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Returns InputStream for the socket.
getInputStream(InputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
Get a SASL wrapped InputStream.
getInputTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getInputWriterClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Returns the resolved InputWriter class.
getInsertIndex(int) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
 
getInstance(Configuration, FSClusterStats, NetworkTopology) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
Get an instance of the configured Block Placement Policy based on the value of the configuration paramater dfs.block.replicator.classname.
getInstance() - 类 中的静态方法org.apache.hadoop.io.ReadaheadPool
Return the singleton instance for the current process.
getInstance() - 类 中的静态方法org.apache.hadoop.mapred.CleanupQueue
 
getInstance() - 类 中的静态方法org.apache.hadoop.mapreduce.Job
Creates a new Job A Job will be created with a generic Configuration.
getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.Job
Creates a new Job with a given Configuration.
getInstance(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.Job
Creates a new Job with a given Configuration and a given jobName.
getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
Get an instance of NetworkTopology based on the value of the configuration parameter net.topology.impl.
getInstance(int) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
Get a singleton instance of hash function of a given type.
getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
Get a singleton instance of hash function of a type defined in the configuration.
getInstance() - 类 中的静态方法org.apache.hadoop.util.hash.JenkinsHash
 
getInstance() - 类 中的静态方法org.apache.hadoop.util.hash.MurmurHash
 
getInstances(String, Class<U>) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as a List of objects implementing the interface specified by xface.
getInt(String, int) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as an int.
getInt(Configuration, String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Utility to retrieve a specified key from a Configuration.
getInteractive() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
getInterfaceName() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
Get the interface name
getInvalidateWorkPctPerIteration(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
Get DFS_NAMENODE_INVALIDATE_WORK_PCT_PER_ITERATION from configuration.
getIOSortMB() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the IO sort space in MB.
getIpcPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
getIPs(String) - 类 中的静态方法org.apache.hadoop.net.DNS
Like DNS.getIPs(String, boolean), but returns all IPs associated with the given interface and its subinterfaces.
getIPs(String, boolean) - 类 中的静态方法org.apache.hadoop.net.DNS
Returns all the IPs associated with the provided interface, if any, in textual form.
getIPs(String, boolean) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Return an InetAddress for each interface that matches the given subnet specified using CIDR notation.
getIsCleanup() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
Get whether task is cleanup attempt or not.
getIsJavaMapper(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Check whether the job is using a Java Mapper.
getIsJavaRecordReader(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Check whether the job is using a Java RecordReader
getIsJavaRecordWriter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Will the reduce use a Java RecordWriter?
getIsJavaReducer(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Check whether the job is using a Java Reducer.
getIsMap() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getIssueDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
getJar() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the user jar for the map-reduce job.
getJar() - 类 中的方法org.apache.hadoop.mapreduce.Job
Get the pathname of the job's jar.
getJar() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the pathname of the job's jar.
getJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
Get an RunningJob object to track an ongoing job.
getJob(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
已过时。
Applications should rather use JobClient.getJob(JobID).
getJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getJob() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
 
getJob() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
getJobACLs() - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
Get the job acls.
getJobACLs() - 类 中的方法org.apache.hadoop.mapred.JobStatus
Get the acls for Job.
getJobAcls() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the acls configured for the job
getJobCacheSubdir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getJobClient() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getJobClient() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
The connection to the JobTracker, used by the TaskRunner for locating remote files.
getJobCompletionTime() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
Get the job completion time-stamp in milli-seconds.
getJobConf() - 类 中的方法org.apache.hadoop.mapred.JobContext
Get the job Configuration
getJobConf() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getJobConf() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
 
getJobConf() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the JobConf for the job.
getJobConf() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getJobConfPath(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
Get the job conf path.
getJobConfPath() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the Path for the Job Configuration file
getJobCounters() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Returns the job-level counters.
getJobCounters(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getJobCounters(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getJobDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Get the user log directory for the job jobid.
getJobDir(JobID) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Get the user log directory for the job jobid.
getJobDistCacheArchives(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
Get the job distributed cache archives path.
getJobDistCacheFiles(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
Get the job distributed cache files path.
getJobDistCacheLibjars(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
Get the job distributed cache libjars path.
getJobEndNotificationURI() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the uri to be invoked in-order to send a notification after the job has completed (success/failure).
getJobFile() - 类 中的方法org.apache.hadoop.mapred.JobProfile
Get the configuration file for the job.
getJobFile() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the path of the submitted job configuration.
getJobFile() - 类 中的方法org.apache.hadoop.mapred.Task
 
getJobForFallowSlot(TaskType) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Get the JobInProgress for which the fallow slot(s) are held.
getJobHistoryFileName(JobConf, JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Recover the job history filename from the history folder.
getJobHistoryLogLocation(String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Get the job history file path given the history filename
getJobHistoryLogLocationForUser(String, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Get the user job history file path
getJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getJobID() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getJobID() - 类 中的方法org.apache.hadoop.mapred.JobProfile
Get the job id.
getJobId() - 类 中的方法org.apache.hadoop.mapred.JobProfile
已过时。
use getJobID() instead
getJobId() - 类 中的方法org.apache.hadoop.mapred.JobStatus
已过时。
use getJobID instead
getJobID() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
getJobID() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
已过时。
This method is deprecated and will be removed. Applications should rather use RunningJob.getID().
getJobID() - 类 中的方法org.apache.hadoop.mapred.Task
Get the job name for this task.
getJobID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptID
 
getJobID() - 类 中的方法org.apache.hadoop.mapred.TaskID
 
getJobID() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the unique ID for the job.
getJobID() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
getJobId() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
Get the jobid
getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.DeleteJobEvent
Get the jobid.
getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
Get the job id.
getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobStartedEvent
Get the job id.
getJobID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
Returns the JobID object that this task attempt belongs to
getJobID() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
Returns the JobID object that this tip belongs to
getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
 
getJobid() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the Job ID
getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
Get the Job ID
getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
Get the job ID
getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
Get the Job ID
getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
Get the Job Id
getJobID() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the job ID
getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the Job Id
getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
Get the Job ID
getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getJobIDsPattern(String, Integer) - 类 中的静态方法org.apache.hadoop.mapred.JobID
已过时。
getJobJar(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
Get the job jar path.
getJobJarFile(String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getJobLocalDir() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get job-specific shared directory for use as scratch space When a job starts, a shared directory is created at location ${mapred.local.dir}/taskTracker/$user/jobcache/$jobid/work/ .
getJobMapMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getJobName() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the user-specified job name.
getJobName() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getJobName() - 类 中的方法org.apache.hadoop.mapred.JobProfile
Get the user-specified job name.
getJobName() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the name of the job.
getJobName() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the user-specified job name.
getJobName() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
getJobName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the Job name
getJobName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getJobPriority() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the JobPriority for this job.
getJobPriority() - 类 中的方法org.apache.hadoop.mapred.JobStatus
Return the priority of the job
getJobProfile(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getJobProfile(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getJobProperties() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
Get the configuration properties of the job.
getJobQueueName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the acls configured for the job
getJobReduceMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getJobRunState(int) - 类 中的静态方法org.apache.hadoop.mapred.JobStatus
Helper method to get human-readable state of the job.
getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
Gets all the jobs which were added to particular Job Queue
getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getJobSplitFile(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
 
getJobSplitMetaFile(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
 
getJobState() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Returns the current state of the Job.
getJobState() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
getJobStatus(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getJobStatus(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getJobStatus() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Returns a snapshot of the current status, JobStatus, of the Job.
getJobSubmitHostAddress() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getJobSubmitHostName() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getJobToken(Credentials) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
 
getJobTokenSecret() - 类 中的方法org.apache.hadoop.mapred.Task
Get the job token secret
getJobTrackerHostPort() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
getJobTrackerMachine() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getJobTrackerState() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the current state of the JobTracker, as JobTracker.State
getJobTrackerUrl() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getJobTrackerUrl() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
getJobtype() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getJtIdentifier() - 类 中的方法org.apache.hadoop.mapreduce.JobID
 
getJvmContext() - 类 中的方法org.apache.hadoop.mapred.Task
Gets the task JvmContext
getJvmInfo() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JvmFinishedEvent
Get the jvm info.
getJvmManagerInstance() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getKeepCommandFile(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Does the user want to keep the command file for debugging?
getKeepFailedTaskFiles() - 类 中的方法org.apache.hadoop.mapred.JobConf
Should the temporary files for failed tasks be kept?
getKeepTaskFilesPattern() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the regular expression that is matched against the task names to see if we need to keep the files.
getKey(BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Copy the key into BytesWritable.
getKey(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Copy the key into user supplied buffer.
getKey(byte[], int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Copy the key into user supplied buffer.
getKey() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
Gets the current raw key
getKey() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
Returns the stored rawKey
getKey() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
Gets the current raw key.
getKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
getKey() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
 
getKeyClass() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Returns the class of keys in this file.
getKeyClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns the class of keys in this file.
getKeyClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
Returns the class of keys in this file.
getKeyClass() - 类 中的方法org.apache.hadoop.io.WritableComparator
Returns the WritableComparable implementation class.
getKeyClass() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
 
getKeyClass() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
The class of key that must be passed to SequenceFileRecordReader.next(Object, Object)..
getKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
getKeyClassName() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns the name of the key class.
getKeyClassName() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Retrieve the name of the key class for this SequenceFile.
getKeyClassName() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Retrieve the name of the key class for this SequenceFile.
getKeyFieldComparatorOption() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the KeyFieldBasedComparator options
getKeyFieldComparatorOption(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
Get the KeyFieldBasedComparator options
getKeyFieldPartitionerOption() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the KeyFieldBasedPartitioner options
getKeyFieldPartitionerOption(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
Get the KeyFieldBasedPartitioner options
getKeyId() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
getKeyId() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
 
getKeyLength() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Get the length of the key.
getKeyList() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
已过时。
 
getKeyNear(long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get a sample key that is within a block whose starting offset is greater than or equal to the specified offset.
getKeyStream() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Streaming access to the key.
getKeytab() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Returns the keytab used by the authentication handler.
getKeyTypeID() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
get the TypeID of the map's key element
getKeyUpdateInterval() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier.Renewer
 
getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenIdentifier
 
getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenIdentifier
 
getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
Get the token kind
getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier.Renewer
 
getKind() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
getKind() - 类 中的方法org.apache.hadoop.security.token.Token
Get the token kind
getKind() - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
 
getKind() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
Get the token kind
getKrb5LoginModuleName() - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
 
getLargeReadOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Get the number of large file system read operations such as list files under a large directory
getLastCheckpointTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
lastcheckpoint.tmp is a transient directory, which holds current file system state while the new state is saved into the new current during regular namespace updates.
getLastContact() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
 
getLastHalf(String) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
Divide networklocation string into two parts by last separator, and get the second part here.
getLastKey() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get the last key in the TFile.
getLastName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
Get the last name in this list
getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
Returns the last output from the client as a String.
getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
 
getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
 
getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
 
getLastScanTime() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
 
getLastSeen() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
 
getLastUpdate() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
The time when this information was accurate.
getLaunchTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
Get the Job launch time
getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
Get the launch time
getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getLayers() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedLocation
 
getLayoutVersion() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
Accessor method for feature layout version
getLayoutVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
 
getLeaseByPath(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
 
getLeaseRenewer() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Return the lease renewer instance.
getLeaves(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
return leaves in scope
getLen() - 类 中的方法org.apache.hadoop.fs.FileStatus
 
getLen() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the length of this file, in bytes.
getLength() - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
 
getLength() - 类 中的方法org.apache.hadoop.fs.BlockLocation
Get the length of the block
getLength() - 类 中的方法org.apache.hadoop.fs.ContentSummary
 
getLength() - 类 中的方法org.apache.hadoop.fs.FileChecksum
The length of the checksum in bytes
getLength(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
Use getFileStatus() instead
getLength(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
getLength() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
The length of the checksum in bytes
getLength() - 类 中的方法org.apache.hadoop.fs.s3.Block
 
getLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Find the block's on-disk length
getLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns the specified block's on-disk length (excluding metadata)
getLength() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface.MetaDataInputStream
 
getLength() - 类 中的方法org.apache.hadoop.io.BinaryComparable
Return n st bytes 0..n-1 from {#getBytes()} are valid.
getLength() - 类 中的方法org.apache.hadoop.io.BytesWritable
Get the current size of the buffer.
getLength() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
Returns the length of the input.
getLength() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
Returns the length of the valid data currently in the buffer.
getLength() - 类 中的方法org.apache.hadoop.io.InputBuffer
Returns the length of the input.
getLength() - 类 中的方法org.apache.hadoop.io.OutputBuffer
Returns the length of the valid data currently in the buffer.
getLength() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
 
getLength() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
Returns the current length of the output file.
getLength() - 类 中的方法org.apache.hadoop.io.Text
Returns the number of bytes in the byte array
getLength() - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
The number of bytes in the encoded string.
getLength() - 类 中的方法org.apache.hadoop.mapred.FileSplit
The number of bytes in the file to process.
getLength() - 接口 中的方法org.apache.hadoop.mapred.InputSplit
Get the total number of bytes in the data of the InputSplit.
getLength() - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
Return the aggregate length of all child InputSplits currently added.
getLength(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
Get the length of ith child InputSplit.
getLength() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
 
getLength(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns the length of the ith Path
getLength() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
 
getLength() - 类 中的方法org.apache.hadoop.mapreduce.InputSplit
Get the size of the split, so that the input splits can be sorted by size.
getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
 
getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
 
getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
 
getLength(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns the length of the ith Path
getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
The number of bytes in the file to process.
getLengths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns an array containing the lengths of the files in the split
getLengths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns an array containing the lengths of the files in the split
getLevel() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Return this node's level in the tree.
getLevel() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.DepthCounter
 
getLevel() - 接口 中的方法org.apache.hadoop.net.Node
Return this node's level in the tree.
getLevel() - 类 中的方法org.apache.hadoop.net.NodeBase
Return this node's level in the tree.
getLevel() - 类 中的方法org.apache.hadoop.tools.rumen.Node
Get the level of the node.
getLibJars(Configuration) - 类 中的静态方法org.apache.hadoop.util.GenericOptionsParser
If libjars are set in the conf, parse the libjars.
getLinkCount(File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
Retrieves the number of links to the specified file.
getLinkMultArgLength(File, String[], File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
Calculate the nominal length of all contributors to the total commandstring length, including fixed overhead of the OS-dependent command.
getListener() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
 
getListenerAddress() - 类 中的方法org.apache.hadoop.ipc.Server
Return the socket (ip+port) on which the RPC server is listening to.
getListing(String, byte[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get a partial listing of the indicated directory
getListing(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Get a partial listing of the indicated directory
getListing(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getLiveNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Returned information is a JSON representation of map with host name as the key and value is a map of live node attribute keys to its values
getLiveNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the live node information of the cluster.
getLoadNativeLibraries(Configuration) - 类 中的方法org.apache.hadoop.util.NativeCodeLoader
Return if native hadoop libraries, if present, can be used for this job.
getLocal(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Get the local file syste
getLocalAnalysisClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the local analysis class.
getLocalCacheArchives(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Return the path array of the localized caches.
getLocalCacheFiles(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Return the path array of the localized files.
getLocalDirs() - 类 中的方法org.apache.hadoop.mapred.JobConf
 
getLocalDirs() - 类 中的方法org.apache.hadoop.mapred.TaskController
 
getLocalHostName() - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Get the fqdn for the current host.
getLocalInetAddress(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Checks if host is a local host name and return InetAddress corresponding to that address.
getLocality() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the locality of the task attempt
getLocalJobDir(String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getLocalJobFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Get the path of the locally stored job file
getLocalJobFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
Get the localized job file path on the job trackers local file system
getLocalMaxRunningMaps(JobContext) - 类 中的静态方法org.apache.hadoop.mapred.LocalJobRunner
 
getLocalName() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the string representation of the local name
getLocalNameInBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the Java UTF8 representation of the local name
getLocalPath(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get a local file under a directory named by dirsProp with the given path.
getLocalPath(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Constructs a local file name.
getLocalPathForWrite(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
Get a path from the local FS.
getLocalPathForWrite(String, long, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
Get a path from the local FS.
getLocalPathForWrite(String, long, Configuration, boolean) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
Get a path from the local FS.
getLocalPathToRead(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
Get a path from the local FS for reading.
getLocalTaskDir(String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getLocalTaskDir(String, String, String, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getLocatedBlocks() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
Get located blocks.
getLocation(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
getLocations from ith InputSplit.
getLocation() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getLocations() - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
 
getLocations() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
getLocations() - 类 中的方法org.apache.hadoop.mapred.FileSplit
 
getLocations() - 接口 中的方法org.apache.hadoop.mapred.InputSplit
Get the list of hostnames where the input split is located.
getLocations() - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
Collect a set of hosts from all child InputSplits.
getLocations() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns all the Paths where this input-split resides
getLocations() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
Get the list of hostnames where the input split is located.
getLocations() - 类 中的方法org.apache.hadoop.mapred.MultiFileSplit
已过时。
 
getLocations() - 类 中的方法org.apache.hadoop.mapreduce.InputSplit
Get the list of nodes by name where the data for the split would be local.
getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
Get the list of nodes by name where the data for the split would be local.
getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns all the Paths where this input-split resides
getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
 
getLocations() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
getLocations() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
getLoggedJob() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
Get the underlining LoggedJob object read directly from the trace.
getLoginUser() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Get the currently logged in user.
getLogLocation() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
 
getLogPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Get output directory for writing distcp logs.
getLong(String, long) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property as a long.
getLong(Configuration, String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Utility to retrieve a specified key from a Configuration.
getLongValue(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
 
getLowerClause() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
 
getMachineByName(String) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
getMachineByName(String) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Get MachineNode by its host name.
getMachines() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
getMachines() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Get all machines of the cluster.
getMachinesInRack() - 类 中的方法org.apache.hadoop.tools.rumen.RackNode
Get the machine nodes that belong to the rack.
getMajor() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
Get the major version.
getMapBandwidth() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Get the map bandwidth in MB
getMapCompletionEvents(JobID, int, int, TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getMapCompletionEvents(JobID, int, int, TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Called by a reduce task to get the map output locations for finished maps.
getMapCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Returns map phase counters by summing over all map tasks in progress.
getMapCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the Map counters for the job
getMapDebugScript() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the map task's debug script.
getMapFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the map phase finish time
getMapInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getMapInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getMapOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getMapOutputCompressorClass(Class<? extends CompressionCodec>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the CompressionCodec for compressing the map outputs.
getMapOutputKeyClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
Get the map output key class.
getMapOutputKeyClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the key class for the map output data.
getMapOutputKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the key class for the map output data.
getMapOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getMapOutputValueClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
Get the map output value class.
getMapOutputValueClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the value class for the map output data.
getMapOutputValueClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the value class for the map output data.
getMapper() - 类 中的方法org.apache.hadoop.mapred.MapRunner
 
getMapperClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the Mapper class for the job.
getMapperClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the Mapper class for the job.
getMapperClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
Get the application's mapper class.
getMapperMaxSkipRecords(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Get the number of acceptable skip records surrounding the bad record PER bad record in mapper.
getMapperTriesToSucceed() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getMapredJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
已过时。
getMapredJobID() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
getMapredTempDir() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Get the Map/Reduce temp directory.
getMapRunnerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the MapRunnable class for the job.
getMapRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
Get the runtime for the map phase of the map-task attempt.
getMapSlotCapacity() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the total number of map slots in the cluster.
getMapSlots() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
Get the number of map slots of the node.
getMapSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
Should speculative execution be used for this job for map tasks?
getMapTaskAttemptInfoAdjusted(int, int, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get TaskAttemptInfo for a given task-attempt, considering impact of locality.
getMapTaskAttemptInfoAdjusted(int, int, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
Get a TaskAttemptInfo with a TaskAttemptID associated with taskType, taskNumber, and taskAttemptNumber.
getMapTaskCompletionEvents() - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
 
getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
Get the information of the current state of the map tasks of a job.
getMapTaskReports(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
已过时。
Applications should rather use JobClient.getMapTaskReports(JobID)
getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getMapTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the number of currently running map tasks in the cluster.
getMapTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getMasterKeyId() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
getMaxAllowedCmdArgLength() - 类 中的静态方法org.apache.hadoop.fs.HardLink
Return this private value for use by unit tests.
getMaxDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
getMaxDepth(int) - 类 中的静态方法org.apache.hadoop.util.QuickSort
Deepest recursion before giving up and doing a heapsort.
getMaximum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
 
getMaximumDistance() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
getMaximumDistance() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Get the maximum distance possible between any two nodes.
getMaxMapAttempts() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the configured number of maximum attempts that will be made to run a map task, as specified by the mapred.map.max.attempts property.
getMaxMaps() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Get the max number of maps to use for this copy
getMaxMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the maximum map slots for this node.
getMaxMapTaskFailuresPercent() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the maximum percentage of map tasks that can fail without the job being aborted.
getMaxMapTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the maximum capacity for running map tasks in the cluster.
getMaxMemory() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
已过时。
getMaxPhysicalMemoryForTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
已过时。
this variable is deprecated and nolonger in use.
getMaxReduceAttempts() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the configured number of maximum attempts that will be made to run a reduce task, as specified by the mapred.reduce.max.attempts property.
getMaxReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the maximum reduce slots for this node.
getMaxReduceTaskFailuresPercent() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the maximum percentage of reduce tasks that can fail without the job being aborted.
getMaxReduceTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the maximum capacity for running reduce tasks in the cluster.
getMaxSplitSize(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Get the maximum split size.
getMaxTaskFailuresPerTracker() - 类 中的方法org.apache.hadoop.mapred.JobConf
Expert: Get the maximum no. of failures of a given job per tasktracker.
getMaxTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
The max time for a single operation since the last reset MetricsTimeVaryingRate.resetMinMax()
getMaxVirtualMemoryForTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
getMBeanInfo() - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
已过时。
 
getMechanismName() - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
Return the SASL mechanism name
getMemory() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Get the total amount of buffer memory, in bytes.
getMemory() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
Get the available physical RAM of the node.
getMemoryCalculatorPlugin(Class<? extends MemoryCalculatorPlugin>, Configuration) - 类 中的静态方法org.apache.hadoop.util.MemoryCalculatorPlugin
已过时。
Get the MemoryCalculatorPlugin from the class name and configure it.
getMemoryForMapTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get memory required to run a map task of the job, in MB.
getMemoryForReduceTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get memory required to run a reduce task of the job, in MB.
getMemoryPerMapSlot() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
Get the amount of RAM reserved for each map slot.
getMemoryPerReduceSlot() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
Get the amount of RAM reserved for each reduce slot.
getMergeRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
Get the runtime for the merge phase of the reduce task-attempt
getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
 
getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
 
getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
getMessage() - 异常错误 中的方法org.apache.hadoop.mapred.InvalidInputException
Get a summary message of the problems found.
getMessage() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getMessage() - 异常错误 中的方法org.apache.hadoop.mapreduce.lib.input.InvalidInputException
Get a summary message of the problems found.
getMessage() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
getMessage() - 异常错误 中的方法org.apache.hadoop.record.compiler.generated.ParseException
This method has the standard behavior when this object has been created using the standard constructors.
getMessage() - 错误 中的方法org.apache.hadoop.record.compiler.generated.TokenMgrError
You can also modify the body of this method to customize your error messages.
getMetaBlock(String) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Stream access to a meta block
getMetadata() - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
getMetadata() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns the metadata object of the file
getMetaDataInputStream(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getMetaDataInputStream(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns metaData of block b as an input stream (and its length)
getMetaDataLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getMetaDataLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns the length of the metadata file of the specified block
getMetaFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getMetaPath() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
Get the Block metadata file.
getMetric(String) - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
已过时。
Returns the metric object which can be a Float, Integer, Short or Byte.
getMetric(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
Get the metric value
getMetricInstance(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
Get the metric value
getMetricNames() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
已过时。
Returns the set of metric names.
getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
 
getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
 
getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.AbstractMetricsSource
 
getMetrics(MetricsBuilder, boolean) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSource
Get metrics from the source
getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.source.JvmMetricsSource
 
getMetricsCopy() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
已过时。
Returns a copy of this record's metrics.
getMetricsList() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
已过时。
 
getMinimum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
 
getMinor() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
Get the minor version.
getMinSplitSize(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Get the minimum split size
getMinTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
The min time for a single operation since the last reset MetricsTimeVaryingRate.resetMinMax()
getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Returns count of blocks with no good replicas left.
getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Returns count of blocks with no good replicas left.
getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getMode() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
 
getModificationTime() - 类 中的方法org.apache.hadoop.fs.FileStatus
Get the modification time of the file.
getModificationTime() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the modification time of the file.
getMount() - 类 中的方法org.apache.hadoop.fs.DF
 
getMultipleLinearRandomRetry(Configuration, String, boolean, String, String) - 类 中的静态方法org.apache.hadoop.io.retry.RetryUtils
Return the MultipleLinearRandomRetry policy specified in the conf, or null if the feature is disabled.
getName() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
 
getName() - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
call #getUri() instead.
getName() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
已过时。
call #getUri() instead.
getName() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
getName() - 类 中的方法org.apache.hadoop.fs.Path
Returns the final component of this path.
getName() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
getName() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
已过时。 
getName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
getName(boolean) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Return hostname:port if requested, ip:port otherwise
getName() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.AccessTimeParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.BlockSizeParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.BufferSizeParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DelegationParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DestinationParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DoAsParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.GroupParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.LengthParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OffsetParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OverwriteParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OwnerParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PermissionParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.RecursiveParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.RenewerParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ReplicationParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UriFsPathParam
 
getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserParam
 
getName(Class) - 类 中的静态方法org.apache.hadoop.io.WritableName
Return the name for a class.
getName() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Returns raw name of the group.
getName() - 类 中的方法org.apache.hadoop.mapreduce.Counter
 
getName() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
Get the internal name of the group
getName() - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
已过时。
 
getName() - 接口 中的方法org.apache.hadoop.net.Node
Return this node's name
getName() - 类 中的方法org.apache.hadoop.net.NodeBase
Return this node's name
getName() - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
return the name of the record
getName() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Returns the principal name (this method name comes from the JDK Principal interface).
getName() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the job name.
getName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
 
getName() - 类 中的方法org.apache.hadoop.tools.rumen.Node
Get the name of the node.
getName() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getNamed(String, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
已过时。
call #get(URI,Configuration) instead.
getNameDirStatuses() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getNameDirStatuses() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Get status information about the directories storing image and edits logs of the NN.
getNamedOutputFormatClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Returns the named output OutputFormat.
getNamedOutputKeyClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Returns the key class for a named output.
getNamedOutputs() - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
Returns iterator with the defined name outputs.
getNamedOutputsList(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Returns list of channel names.
getNamedOutputValueClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Returns the value class for a named output.
getNamenode() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Return the namenode's identifier
getNamenodeAddr(URI) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getNameNodeAddr() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getNamenodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getNamenodeAddress() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
Gets the namenode IP address.
getNameNodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Returns the address on which the NameNodes is listening to.
getNameNodeMetrics() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getNames() - 类 中的方法org.apache.hadoop.fs.BlockLocation
Get the list of names (hostname:port) hosting this block
getNamespaceDirs(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getNamespaceEditsDirs(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getNamespaceID() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
 
getNamesystem() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getNameWithIpcPort(boolean) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Return hostname:ipcPort if requested, ip:ipcPort otherwise
getNestedStructTypeInfo(String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
Return the type info of a nested record.
getNetgroupNames() - 类 中的方法org.apache.hadoop.security.NetgroupCache
 
getNetgroups(String, List<String>) - 类 中的方法org.apache.hadoop.security.NetgroupCache
 
getNetgroups(String, List<String>) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
getNetworkLocation() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
network location
getNetworkLocation() - 接口 中的方法org.apache.hadoop.net.Node
Return the string representation of this node's network location
getNetworkLocation() - 类 中的方法org.apache.hadoop.net.NodeBase
Return this node's network location
getNewJobId() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Allocates a new JobId string.
getNewJobId() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getNext() - 接口 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet.LinkedElement
Get the next element.
getNext() - 类 中的方法org.apache.hadoop.tools.rumen.DefaultInputDemuxer
 
getNext() - 接口 中的方法org.apache.hadoop.tools.rumen.InputDemuxer
Get the next pair.
getNextHeartbeatInterval() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Calculates next heartbeat interval using cluster size.
getNextJob() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStoryProducer
Get the next job.
getNextJob() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJobProducer
 
getNextRecordRange() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get the next record range which is going to be processed by Task.
getNextToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
getNextToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
 
getNode(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Return the Node in the network topology that corresponds to the hostname
getNode() - 类 中的方法org.apache.hadoop.mapred.join.Parser.NodeToken
 
getNode() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
 
getNode(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Given a string representation of a node, return its reference
getNodeForNetworkLocation(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Return a reference to the node given its string representation.
getNodeForNetworkLocation(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
 
getNodeGroup(String) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
Given a string representation of a node group for a specific network location
getNodesAtMaxLevel() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Returns a collection of nodes at the max level
getNonDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
The used space by the data node.
getNonDfsUsedSpace() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getNonDfsUsedSpace() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets total used space by data nodes for non DFS purposes such as storing temporary files on the local file system
getNullContext(String) - 类 中的静态方法org.apache.hadoop.metrics.ContextFactory
已过时。
Returns a "null" context - one which does nothing.
getNum() - 类 中的方法org.apache.hadoop.mapred.join.Parser.NumToken
 
getNum() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
 
getNumber() - 类 中的方法org.apache.hadoop.metrics.spi.MetricValue
已过时。
 
getNumberColumns() - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Get the number of columns.
getNumberMaps() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the number of maps in the JobStory.
getNumberMaps() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getNumberOfBlocks() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
The number of blocks
getNumberOfKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Returns the number of delegation keys currently stored.
getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
Return the total number of paths to distcp, includes directories as well This doesn't consider whether file/dir is already present and should be skipped during copy
getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
Return the total number of paths to distcp, includes directories as well This doesn't consider whether file/dir is already present and should be skipped during copy
getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
Return the total number of paths to distcp, includes directories as well This doesn't consider whether file/dir is already present and should be skipped during copy
getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
Return the total number of paths to distcp, includes directories as well This doesn't consider whether file/dir is already present and should be skipped during copy
getNumberOfThreads(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
The number of threads in the thread pool that will run the map function.
getNumberOfUniqueHosts() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getNumberReduces() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the number of reduce in the JobStory.
getNumberReduces() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getNumberValues() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
 
getNumBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
getNumBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
Get number of bytes in the block.
getNumBytesInSum() - 类 中的方法org.apache.hadoop.util.DataChecksum
 
getNumCores() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
Get the number of cores of the node.
getNumExcludedNodes() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the number of excluded hosts in the cluster.
getNumFiles(PathFilter) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
已过时。
 
getNumLinesPerSplit(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
Get the number of lines per split
getNumLoggedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
Getting the number of map tasks that are actually logged in the trace.
getNumLoggedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
Getting the number of reduce tasks that are actually logged in the trace.
getNumMapTasks() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get configured the number of reduce tasks for this job.
getNumMapTasks(Configuration) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
 
getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
 
getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
Returns the number of key fields.
getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
 
getNumOfLeaves() - 类 中的方法org.apache.hadoop.net.NetworkTopology
Return the total number of nodes
getNumOfRacks() - 类 中的方法org.apache.hadoop.net.NetworkTopology
Return the total number of racks
getNumOfReplies() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
Get the number of replies
getNumOpenConnections() - 类 中的方法org.apache.hadoop.ipc.Server
The number of open RPC conections
getNumPaths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns the number of Paths in the split
getNumPaths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns the number of Paths in the split
getNumProcessors() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the total number of processors present on the system.
getNumProcessors() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the total number of processors present on the system.
getNumReduceTasks() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get configured the number of reduce tasks for this job.
getNumReduceTasks() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get configured the number of reduce tasks for this job.
getNumRequests() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
Gets the number of requests we are tracking
getNumReservedTaskTrackersForMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getNumReservedTaskTrackersForReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getNumResolvedTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getNumSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getNumSlots() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getNumSlotsPerTask(TaskType) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getNumSlotsRequired() - 类 中的方法org.apache.hadoop.mapred.Task
 
getNumStaleNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getNumStorageDirs() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
 
getNumTaskCacheLevels() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getNumTasksToExecutePerJvm() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the number of tasks that a spawned JVM should execute
getOccupiedMapSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get number of occupied map slots in the cluster.
getOccupiedReduceSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of occupied reduce slots in the cluster.
getOffset() - 类 中的方法org.apache.hadoop.fs.BlockLocation
Get the start offset of file associated with this block
getOffset() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
 
getOffset(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns the start offset of the ith Path
getOffset(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns the start offset of the ith Path
getOidInstance(String) - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
 
getOp() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
Get the type of the operation.
getOp() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Get the type of operation.
getOperations() - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
 
GetOpParam - org.apache.hadoop.hdfs.web.resources中的类
Http GET operation parameter.
GetOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.GetOpParam
Constructor.
GetOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
Get operations.
getOpt(String) - 类 中的方法org.apache.hadoop.fs.shell.CommandFormat
Return if the option is set or not
getOption() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
Get CLI Option corresponding to the distcp option
getOtherAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
Return other FsAction.
getOtherTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getOutcome() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the outcome of the job execution.
getOutcome() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getOutcome() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getOutput() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
Get the output of the shell command.
getOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
 
getOutputCommitter() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the OutputCommitter implementation for the map-reduce job, defaults to FileOutputCommitter if not specified explicitly.
getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
 
getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
 
getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
 
getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
 
getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
 
getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
Get the output committer for this output format.
getOutputCommitter() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
 
getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
 
getOutputCompressionType(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
getOutputCompressionType(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
getOutputCompressorClass(JobConf, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Get the CompressionCodec for compressing the job outputs.
getOutputCompressorClass(JobContext, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Get the CompressionCodec for compressing the job outputs.
getOutputFieldCount() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getOutputFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getOutputFormat() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the OutputFormat implementation for the map-reduce job, defaults to TextOutputFormat if not specified explicity.
getOutputFormatClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the OutputFormat class for the job.
getOutputKeyClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
Get the reduce output key class.
getOutputKeyClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the key class for the job output data.
getOutputKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the key class for the job output data.
getOutputKeyClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Returns the resolved output key class.
getOutputKeyComparator() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the RawComparator comparator used to compare keys.
getOutputName(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Get the base output name for the output file.
getOutputPath(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Get the Path to the output directory for the map-reduce job.
getOutputPath(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Get the Path to the output directory for the map-reduce job.
getOutputReaderClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Returns the resolved OutputReader class.
getOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
 
getOutputSize() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Returns the number of bytes of output from this map.
getOutputStream(Socket) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Same as getOutputStream(socket, 0).
getOutputStream(Socket, long) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Returns OutputStream for the socket.
getOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
Get a SASL wrapped OutputStream.
getOutputTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
getOutputValueClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
Get the reduce output value class.
getOutputValueClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the value class for job outputs.
getOutputValueClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the value class for job outputs.
getOutputValueClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Returns the resolved output value class.
getOutputValueGroupingComparator() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the user defined WritableComparable comparator for grouping keys of inputs to the reduce.
getOwner() - 类 中的方法org.apache.hadoop.fs.FileStatus
Get the owner of the file.
getOwner() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the owner of the file.
getOwner(FileDescriptor) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
 
getOwner() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
 
getParameter(String) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
Unquote the name and quote the value.
getParameter(ServletRequest, String) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
Get a parameter from a ServletRequest.
getParameterMap() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
 
getParameterNames() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
Return the set of parameter names, quoting each name.
getParameterValues(String) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
 
getParent() - 类 中的方法org.apache.hadoop.fs.Path
Returns the parent of a path or null if at root.
getParent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Return this node's parent
getParent() - 接口 中的方法org.apache.hadoop.net.Node
Return this node's parent
getParent() - 类 中的方法org.apache.hadoop.net.NodeBase
Return this node's parent
getParent() - 类 中的方法org.apache.hadoop.tools.rumen.Node
Get the parent node.
getParentNode(Node, int) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
 
getParser(RewindableInputStream) - 类 中的静态方法org.apache.hadoop.tools.rumen.JobHistoryParserFactory
 
getPartialListing() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
Get the partial listing of file status
getPartition(Shard, IntermediateForm, int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdatePartitioner
 
getPartition(SecondarySort.IntPair, IntWritable, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.FirstPartitioner
 
getPartition(IntWritable, NullWritable, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
 
getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapred.lib.HashPartitioner
Use Object.hashCode() to partition.
getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
 
getPartition(int, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
 
getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
 
getPartition(K2, V2, int) - 接口 中的方法org.apache.hadoop.mapred.Partitioner
Get the paritition number for a given key (hence record) given the total number of partitions i.e. number of reduce-tasks for the job.
getPartition() - 类 中的方法org.apache.hadoop.mapred.Task
Get the index of this task within the job.
getPartition(BinaryComparable, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
Use (the specified slice of the array returned by) BinaryComparable.getBytes() to partition.
getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.HashPartitioner
Use Object.hashCode() to partition.
getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
 
getPartition(int, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
 
getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
 
getPartition(KEY, VALUE, int) - 类 中的方法org.apache.hadoop.mapreduce.Partitioner
Get the partition number for a given key (hence record) given the total number of partitions i.e. number of reduce-tasks for the job.
getPartitionerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the Partitioner used to partition Mapper-outputs to be sent to the Reducers.
getPartitionerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the Partitioner class for the job.
getPartitionFile(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
Get the path to the SequenceFile storing the sorted partition keyset.
getPartitionFile(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
Get the path to the SequenceFile storing the sorted partition keyset.
getPassword() - 类 中的方法org.apache.hadoop.security.token.Token
Get the token password/secret
getPath() - 类 中的方法org.apache.hadoop.fs.FileStatus
 
getPath() - 类 中的方法org.apache.hadoop.mapred.FileSplit
The file containing this split's data.
getPath(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns the ith Path
getPath(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns the ith Path
getPath() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
The file containing this split's data.
getPath(Node) - 类 中的静态方法org.apache.hadoop.net.NodeBase
Return this node's path
getPathForCustomFile(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Helper function to generate a Path for a file that is unique for the task within the job output directory.
getPathForWorkFile(TaskInputOutputContext<?, ?, ?, ?>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Helper function to generate a Path for a file that is unique for the task within the job output directory.
getPaths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns all the Paths in the split
getPaths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns all the Paths in the split
getPendingDeletionBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getPendingReplicationBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getPendingReplicationBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Blocks pending to be replicated
getPercentExceptions() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
Gets the percent of the requests that had exceptions occur.
getPercentRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getPercentRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the total remaining space by data nodes as percentage of total capacity
getPercentUsed() - 类 中的方法org.apache.hadoop.fs.DF
 
getPercentUsed() - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
已过时。
 
getPercentUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getPercentUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the total used space by data nodes as percentage of total capacity
getPeriod() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Returns the timer period.
getPeriod() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Returns the timer period.
getPermission() - 类 中的方法org.apache.hadoop.fs.FileStatus
Get FsPermission associated with the file.
getPermission() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
Return permission
getPermission() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get FsPermission associated with the file.
getPhase() - 类 中的方法org.apache.hadoop.mapred.Task
Return current phase of the task.
getPhase() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get current phase of this task.
getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
已过时。
Obtain the total size of the physical memory present in the system.
getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the total size of the physical memory present in the system.
getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.MemoryCalculatorPlugin
已过时。
Obtain the total size of the physical memory present in the system.
getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the total size of the physical memory present in the system.
getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
Obtain the physical memory size used by current process tree.
getPhysicalMemoryUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Get the physical memory usage.
getPlatformName() - 类 中的静态方法org.apache.hadoop.util.PlatformName
Get the complete platform as per the java-vm.
getPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
getPort() - 类 中的方法org.apache.hadoop.http.HttpServer
Get the port that the server is on
getPos() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
 
getPos() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
 
getPos() - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
getPos() - 异常错误 中的方法org.apache.hadoop.fs.ChecksumException
 
getPos() - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
 
getPos() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
 
getPos() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
 
getPos() - 类 中的方法org.apache.hadoop.fs.FSInputStream
Return the current offset from the start of the file
getPos() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
getPos() - 接口 中的方法org.apache.hadoop.fs.Seekable
Return the current offset from the start of the file
getPos() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
Return the current offset from the start of the file
getPos() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
 
getPos() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
This method returns the current position in the stream.
getPos() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Unsupported (returns zero in all cases).
getPos() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Request position from proxied RR.
getPos() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
 
getPos() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
return the amount of data processed
getPos() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
Returns the current position in the input.
getPos() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
 
getPos() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
Returns the current position in the input.
getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
 
getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
getPos() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
已过时。 
getPos() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
Returns the current position in the input.
getPosition() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
Returns the current position in the input.
getPosition() - 类 中的方法org.apache.hadoop.io.InputBuffer
Returns the current position in the input.
getPosition() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Return the current byte position in the input file.
getPreferredBlockSize(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get the block size for the given file.
getPreferredBlockSize(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getPreferredLocations() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getPreviousCheckpoint() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
previous.checkpoint is a directory, which holds the previous (before the last save) state of the storage directory.
getPreviousDir() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Directory previous contains the previous file system state, which the system can be rolled back to.
getPreviousIntervalAverageTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
The average rate of an operation in the previous interval
getPreviousIntervalNumOps() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
The number of operations in the previous interval
getPreviousIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
已过时。
The Value at the Previous interval
getPreviousIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
已过时。
The Value at the Previous interval
getPreviousTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
previous.tmp is a transient directory, which holds current file system state while the new state is saved into the new current during upgrade.
getPreviousVersionFile() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
File VERSION from the previous directory.
getPrincipal() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Returns the Kerberos principal used by the authentication handler.
getPriority() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getPriority() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
Get the job priority
getPriority() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getPrivateDistributedCacheDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getProblems() - 异常错误 中的方法org.apache.hadoop.mapred.InvalidInputException
Get the complete list of the problems reported.
getProblems() - 异常错误 中的方法org.apache.hadoop.mapreduce.lib.input.InvalidInputException
Get the complete list of the problems reported.
getProcess() - 类 中的方法org.apache.hadoop.util.Shell
get the current sub-process executing the given command
getProcessedByteCount() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
This method reports the processed bytes so far.
getProcessTree() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Get the process-tree with latest state.
getProcessTreeDump() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Get a dump of the process-tree.
getProcResourceValues() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
 
getProcResourceValues() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain resource status used by current process tree.
getProfile() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getProfileEnabled() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get whether the task profiling is enabled.
getProfileParams() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the profiler configuration arguments.
getProfileTaskRange(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the range of maps or reduces to profile.
getProgress() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
 
getProgress() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
 
getProgress() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
Gets the Progress object; this has a float (0.0 - 1.0) indicating the bytes processed by the iterator so far
getProgress() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Report progress as the minimum of all child RR progress.
getProgress() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Request progress from proxied RR.
getProgress() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
 
getProgress() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
return progress based on the amount of data processed so far.
getProgress() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
How much of the input has the RecordReader consumed i.e.
getProgress() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
Get the progress within the split
getProgress() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
Gets the Progress object; this has a float (0.0 - 1.0) indicating the bytes processed by the iterator so far
getProgress() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
How much of the input has the RecordReader consumed i.e.
getProgress() - 接口 中的方法org.apache.hadoop.mapred.Reporter
Get the progress of the task.
getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Return the progress within the input split
getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
 
getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
Return the progress within the input split
getProgress() - 类 中的方法org.apache.hadoop.mapred.Task
 
getProgress() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
getProgress() - 类 中的方法org.apache.hadoop.mapred.TaskReport
The amount completed, between zero and one.
getProgress() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
The current progress of the record reader through its data.
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
return progress based on the amount of data processed so far.
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
 
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
Get the progress within the split
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Return the progress within the input split
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
 
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
Return the progress within the input split
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
The current progress of the record reader through its data.
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
Get the current progress.
getProgress() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
 
getProgress() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
 
getProgress() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
Implementation of RecordReader::getProgress().
getProgress() - 类 中的方法org.apache.hadoop.util.Progress
Returns progress in this node. get() would give overall progress of the root node(not just given current node).
getProgressible() - 类 中的方法org.apache.hadoop.mapred.JobContext
Get the progress mechanism for reporting progress.
getProgressible() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
 
getProtocol() - 类 中的方法org.apache.hadoop.security.authorize.Service
Get the protocol for the service
getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Return protocol version corresponding to protocol interface.
getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getProtocolVersion(String, long) - 接口 中的方法org.apache.hadoop.ipc.VersionedProtocol
Return protocol version corresponding to protocol interface.
getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, SocketFactory) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a client-side proxy object that implements the named protocol, talking to a server at the named address.
getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a client-side proxy object that implements the named protocol, talking to a server at the named address.
getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a client-side proxy object that implements the named protocol, talking to a server at the named address.
getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a client-side proxy object that implements the named protocol, talking to a server at the named address.
getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory, int, RetryPolicy, boolean) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a client-side proxy object that implements the named protocol, talking to a server at the named address.
getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a client-side proxy object with the default SocketFactory
getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
 
getProxySuperuserGroupConfKey(String) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
Returns configuration key for effective user groups allowed for a superuser
getProxySuperuserIpConfKey(String) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
Return configuration key for superuser ip addresses
getPublicDistributedCacheDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getQueue() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.JobClient
Gets the Queue ACLs for current user
getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getQueueAdmins(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getQueueAdmins(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
Gets the queue information associated to a particular Job Queue
getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getQueueInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getQueueInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getQueueManager() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Return the QueueManager associated with the JobTracker.
getQueueMetrics() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Get the QueueMetrics object associated with this job
getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobConf
Return the name of the queue to which this job is submitted.
getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobProfile
Get the name of the queue to which the job is submitted.
getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
Get the queue name from JobQueueInfo
getQueueName() - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
 
getQueueName() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the queue where the job is submitted.
getQueueName() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getQueues() - 类 中的方法org.apache.hadoop.mapred.JobClient
Return an array of queue information objects about all the Job Queues configured.
getQueues() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getQueues() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getQueueState() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
Return the queue state
getQuota() - 类 中的方法org.apache.hadoop.fs.ContentSummary
Return the directory quota
getRack(DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
Get rack string from a data node
getRack(DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
 
getRack(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Given a string representation of a rack for a specific network location To be overridden in subclasses for specific NetworkTopology implementations, as alternative to overriding the full NetworkTopology.getRack(String) method.
getRack(String) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
 
getRackByName(String) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
getRackByName(String) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Get RackNode by its name.
getRackNode() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
Get the rack node that the machine belongs to.
getRacks() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
getRacks() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Get all racks of the cluster.
getRandomDatanode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getRandomId() - 类 中的静态方法org.apache.hadoop.tools.DistCp
 
getRandomMachines(int, Random) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
getRandomMachines(int, Random) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
Select a random set of machines.
getRange(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
Parse the given attribute as a set of integer ranges
getRankingAt(int) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
 
getRankings() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
 
getRaw(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the value of the name property, without doing variable expansion.
getRaw() - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
 
getRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
Return the total raw capacity of the filesystem, disregarding replication .
getRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Return the total raw capacity of the filesystem, disregarding replication .
getRawFileSystem() - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
get the raw file system
getRawUsed() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
Return the total raw used space in the filesystem, disregarding replication .
getRawUsed() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Return the total raw used space in the filesystem, disregarding replication .
getReaders(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.mapred.MapFileOutputFormat
Open the output generated by this format.
getReaders(Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
Open the output generated by this format.
getReadOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Get the number of file system read operations such as list files
getReadyJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
 
getReadyJobsList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
 
getRealm() - 类 中的方法org.apache.hadoop.security.KerberosName
Get the realm of the name.
getRealUser() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
get RealUser (vs.
getReasonsForBlacklisting(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getReasonsForGraylisting(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getRecordName() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Returns the record name.
getRecordName() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Returns the record name.
getRecordNum() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Get the RecordNum corresponding to the entry pointed by the cursor.
getRecordNumNear(long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Get the RecordNum for the first key-value pair in a compressed block whose byte offset in the TFile is greater than or equal to the specified offset.
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MyInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob.SleepInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.terasort.TeraInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 接口 中的方法org.apache.hadoop.mapred.InputFormat
Get the RecordReader for the given InputSplit.
getRecordReader(InputSplit, JobConf, Reporter) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
Construct a CompositeRecordReader for the children of this InputFormat as defined in the init expression.
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.KeyValueTextInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
This is not implemented yet.
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
Get the RecordReader for the given InputSplit.
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.MultiFileInputFormat
已过时。
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter
Create a record reader for the given split
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.TextInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.streaming.AutoInputFormat
 
getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.streaming.StreamInputFormat
 
getRecordReaderQueue() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Return sorted list of RecordReaders for this composite.
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateOutputFormat
 
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.examples.terasort.TeraOutputFormat
 
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.FileOutputFormat
 
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
Get the RecordWriter for the given job.
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
Create a composite record writer that can write key/value data to different output files
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.NullOutputFormat
 
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.MapFileOutputFormat
 
getRecordWriter(FileSystem, JobConf, String, Progressable) - 接口 中的方法org.apache.hadoop.mapred.OutputFormat
Get the RecordWriter for the given job.
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
 
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileOutputFormat
 
getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.TextOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
Get the RecordWriter for the given task.
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.TextOutputFormat
 
getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
Get the RecordWriter for the given task.
getRecoveryDuration() - 类 中的方法org.apache.hadoop.mapred.JobTracker
How long the jobtracker took to recover from restart.
getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
 
getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
 
getRedirect() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
 
getRedirect() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
 
getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
 
getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
 
getReduceCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Returns map phase counters by summing over all map tasks in progress.
getReduceCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the reduce counters for the job
getReduceDebugScript() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the reduce task's debug Script
getReduceInputGroups() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getReduceInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getReduceOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getReducerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the Reducer class for the job.
getReducerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the Reducer class for the job.
getReducerMaxSkipGroups(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Get the number of acceptable skip groups surrounding the bad group PER bad group in reducer.
getReduceRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
Get the runtime for the reduce phase of the reduce task-attempt.
getReduceShuffleBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getReduceSlotCapacity() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the total number of reduce slots in the cluster.
getReduceSlots() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
Get the number of reduce slots of the node.
getReduceSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
Should speculative execution be used for this job for reduce tasks?
getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
Get the information of the current state of the reduce tasks of a job.
getReduceTaskReports(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
已过时。
Applications should rather use JobClient.getReduceTaskReports(JobID)
getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getReduceTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the number of currently running reduce tasks in the cluster.
getReduceTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getRegistrationID(StorageInfo) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
 
getRegistrationID() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Get registrationID for datanodes based on the namespaceID.
getRegistrationID() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
getRelativePath(Path, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Gets relative path of child path with respect to a root path For ex.
getRelativeRanking() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
 
getRelativeTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getRemaining() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
 
getRemaining() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
The raw free space.
getRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Return how many bytes can still be stored in the FSDataset
getRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
Returns the amount of free storage space (in bytes)
getRemaining() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
getRemaining() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Returns the number of bytes remaining in the compressed-data buffer; typically called after the decompressor has finished decompressing the current gzip stream (a.k.a.
getRemaining() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Returns 0.
getRemaining() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Returns the number of bytes remaining in the input buffer; normally called when finished() is true to determine amount of post-gzip-stream data.
getRemaining() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
Returns the number of bytes remaining in the input buffers; normally called when finished() is true to determine amount of post-gzip-stream data.
getRemainingArgs() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
Returns an array of Strings containing only application-specific arguments.
getRemainingEntries() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
Get the number of remaining entries that are left to be listed
getRemainingPercent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
The remaining space as percentage of configured capacity.
getRemoteAddress() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
 
getRemoteAddress() - 类 中的静态方法org.apache.hadoop.ipc.Server
Returns remote address as a string when invoked inside an RPC.
getRemoteIp() - 类 中的静态方法org.apache.hadoop.ipc.Server
Returns the remote side ip address when invoked inside an RPC Returns null incase of an error.
getRemovedTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
removed.tmp is a transient directory, which holds current file system state while the previous state is moved into current during rollback.
getRenewAddress(String, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
Get the URI that we use for getting, renewing, and cancelling the delegation token.
getRenewDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager.DelegationTokenInformation
returns renew date
getRenewer() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
getRenewToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getRenewToken() - 接口 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer.Renewable
 
getRenewToken() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getReplication() - 类 中的方法org.apache.hadoop.fs.FileStatus
Get the replication factor of a file.
getReplication(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
Use getFileStatus() instead
getReplication(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
getReplication() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Get the replication factor of a file.
getReplWorkMultiplier(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
Get DFS_NAMENODE_REPLICATION_WORK_MULTIPLIER_PER_ITERATION from configuration.
getReply(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
get the ith reply
getReport() - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
log the counters
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
 
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
 
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
 
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
 
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
 
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
 
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
 
getReport() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
 
getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
 
getReportDetails() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
 
getReportItems() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
 
getRequestFilter() - 类 中的方法org.apache.hadoop.hdfs.web.ParamFilter
 
getRequestURL() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
Quote the url so that users specifying the HOST HTTP header can't inject attacks.
getRequestURL(HttpServletRequest) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns the full URL of the request including the query string.
getReservedMapSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get number of reserved map slots in the cluster.
getReservedReduceSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of reserved reduce slots in the cluster.
getResolvedUrl(HttpURLConnection) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
 
getResource(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the URL for the named resource.
getResourceBundle(String) - 类 中的静态方法org.apache.hadoop.mapreduce.CounterGroup
Returns the specified resource bundle, or throws an exception.
getResourceCalculatorPlugin(Class<? extends ResourceCalculatorPlugin>, Configuration) - 类 中的静态方法org.apache.hadoop.util.ResourceCalculatorPlugin
Get the ResourceCalculatorPlugin from the class name and configure it.
getResourceUsageMetrics() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getResourceUsageMetrics() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
 
getResponseFilter() - 类 中的方法org.apache.hadoop.hdfs.web.ParamFilter
 
getResult() - 类 中的方法org.apache.hadoop.examples.Sort
Get the last job that was run using this instance.
getResult() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getRetainHours() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
Get the number of hours for which job logs should be retained.
getRevision() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
 
getRevision() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
Get the subversion revision number for the root directory
getRoot() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Get root directory of this storage
getRoot(UserGroupInformation, DelegationParam, GetOpParam, OffsetParam, LengthParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
Handle HTTP GET request for the root.
getRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, GetOpParam, OffsetParam, LengthParam, RenewerParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP GET request for the root.
getRotations() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
 
getRpcMetrics() - 类 中的方法org.apache.hadoop.ipc.Server
Returns a handle to the rpcMetrics (required in tests)
getRpcPort() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getRpcPort() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
Gets the rpc port.
getRpcPort() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getRpcPort() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
getRunAsUser(JobConf) - 类 中的方法org.apache.hadoop.mapred.TaskController
Returns the local unix user that a given job will run as.
getRunnable() - 类 中的方法org.apache.hadoop.util.Daemon
 
getRunningJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
 
getRunningJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
 
getRunningJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Version that is called from a timer thread, and therefore needs to be careful to synchronize.
getRunningMaps() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of running map tasks in the cluster.
getRunningReduces() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of running reduce tasks in the cluster.
getRunningTaskAttempts() - 类 中的方法org.apache.hadoop.mapred.TaskReport
Get the running task attempt IDs for this task
getRunState() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
getRunState() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getRunState() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
Get the final TaskStatus.State of the task-attempt.
getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
 
getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
 
getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
Get the total runtime for the task-attempt.
getSafemode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getSafemode() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the safemode status
getSafeModeText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
getSafeModeTip() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.IntervalSampler
For each split sampled, emit when the ratio of the number of records retained to the total record count is less than the specified frequency.
getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.RandomSampler
Randomize the split order, then take the specified number of keys from each split sampled, where each key is selected with the specified probability and possibly replaced by a subsequently selected key when the quota of keys from that split is satisfied.
getSample(InputFormat<K, V>, JobConf) - 接口 中的方法org.apache.hadoop.mapred.lib.InputSampler.Sampler
For a given job, collect and return a subset of the keys from the input data.
getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.SplitSampler
From each split sampled, take the first numSamples / numSplits records.
getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.IntervalSampler
For each split sampled, emit when the ratio of the number of records retained to the total record count is less than the specified frequency.
getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.RandomSampler
Randomize the split order, then take the specified number of keys from each split sampled, where each key is selected with the specified probability and possibly replaced by a subsequently selected key when the quota of keys from that split is satisfied.
getSample(InputFormat<K, V>, Job) - 接口 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.Sampler
For a given job, collect and return a subset of the keys from the input data.
getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.SplitSampler
From each split sampled, take the first numSamples / numSplits records.
getSaslQop() - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
 
getScheduledReplicationBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getScheduledReplicationBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Blocks scheduled for replication
getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
Gets the scheduling information associated to particular job queue.
getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobStatus
Gets the Scheduling information associated to a particular Job.
getScheme() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Get the uri scheme associated with this statistics object.
getScope() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
 
getSecond() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
 
getSecretAccessKey() - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
 
getSecretKey(Credentials, Text) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
auxiliary method to get user's secret keys..
getSecretKey(Text) - 类 中的方法org.apache.hadoop.security.Credentials
Returns the key bytes for the alias
getSeed(String, long) - 类 中的静态方法org.apache.hadoop.tools.rumen.RandomSeedGenerator
Generates a new random seed.
getSelectQuery() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
Returns the query for selecting the records, subclasses can override this for custom behaviour.
getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBRecordReader
Returns the query for selecting the records, subclasses can override this for custom behaviour.
getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
Returns the query for selecting the records, subclasses can override this for custom behaviour.
getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
Returns the query for selecting the records from an Oracle DB.
getSelfAddr() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getSeqno() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
Get the sequence number
getSequenceFileOutputKeyClass(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
Get the key class for the SequenceFile
getSequenceFileOutputKeyClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
Get the key class for the SequenceFile
getSequenceFileOutputValueClass(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
Get the value class for the SequenceFile
getSequenceFileOutputValueClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
Get the value class for the SequenceFile
getSequenceNumber() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
getSequenceWriter(TaskAttemptContext, Class<?>, Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
 
getSerialization(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
 
getSerializedLength() - 类 中的方法org.apache.hadoop.fs.s3.INode
 
getSerializer(Class<Serializable>) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerialization
 
getSerializer(Class<T>) - 接口 中的方法org.apache.hadoop.io.serializer.Serialization
 
getSerializer(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
 
getSerializer(Class<Writable>) - 类 中的方法org.apache.hadoop.io.serializer.WritableSerialization
 
getServer(Object, String, int, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a server for a protocol implementation instance listening on a port and address.
getServer(Object, String, int, int, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a server for a protocol implementation instance listening on a port and address.
getServer(Object, String, int, int, boolean, Configuration, SecretManager<? extends TokenIdentifier>) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Construct a server for a protocol implementation instance listening on a port and address, with a secret manager.
getServerAddress(Configuration, String, String, String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
已过时。
getServerName() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
Quote the server name so that users specifying the HOST HTTP header can't inject attacks.
getServerPrincipal(String, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Convert Kerberos principal name pattern to valid Kerberos principal names.
getServerPrincipal(String, InetAddress) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Convert Kerberos principal name pattern to valid Kerberos principal names.
getServerVersion() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
Get the server's agreed to version.
getService() - 类 中的方法org.apache.hadoop.security.token.Token
Get the service on which the token is supposed to be used
getServiceAddress(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
Fetches the address for services to use when connecting to namenode based on the value of fallback returns null if the special address is not specified or returns the default namenode address to be used by both clients and services.
getServiceKey() - 类 中的方法org.apache.hadoop.security.authorize.Service
Get the configuration key for the service.
getServiceName() - 类 中的方法org.apache.hadoop.security.KerberosName
Get the first component of the name.
getServicePrincipal(String, String) - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
Create Kerberos principal for a given service and hostname.
getServiceRpcServerAddress(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Given a configuration get the address of the service rpc server If the service rpc is not configured returns null
getServices() - 类 中的方法org.apache.hadoop.hdfs.HDFSPolicyProvider
 
getServices() - 类 中的方法org.apache.hadoop.mapred.MapReducePolicyProvider
 
getServices() - 类 中的方法org.apache.hadoop.security.authorize.PolicyProvider
Get the Service definitions from the PolicyProvider.
getSessionId() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the user-specified session identifier.
getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
Get the information of the current state of the setup tasks of a job.
getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getShape(boolean, int) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
 
getShortName() - 类 中的方法org.apache.hadoop.security.KerberosName
Get the translation of the principal name into an operating system user name.
getShortUserName() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Get the user's login name.
getShuffleFinished() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getShuffleFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get shuffle finish time for the task.
getShuffleFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the finish time of the shuffle phase
getShuffleRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
Get the runtime for the shuffle phase of the reduce task-attempt.
getSize(OpenEntity, Class<?>, Type, Annotation[], MediaType) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
 
getSize() - 类 中的方法org.apache.hadoop.io.BytesWritable
已过时。
getSize() - 接口 中的方法org.apache.hadoop.io.SequenceFile.ValueBytes
Size of stored data.
getSize() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
getSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
getSkipOutputPath(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Get the directory to which skipped records are written.
getSkipRanges() - 类 中的方法org.apache.hadoop.mapred.Task
Get skipRanges.
getSlope(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
getSocketFactory(Configuration, Class<?>) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Get the socket factory for the given class according to its configuration parameter hadoop.rpc.socket.factory.class.
getSocketFactoryFromProperty(Configuration, String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Get the socket factory corresponding to the given proxy URI.
getSortComparator() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the RawComparator comparator used to compare keys.
getSortFinished() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getSortFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get sort finish time for the task,.
getSortFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the finish time of the sort phase
getSourceFileListing() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
File path (hdfs:// or file://) that contains the list of actual files to copy
getSourcePaths() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Getter for sourcePaths.
getSpace(int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
getSpaceConsumed() - 类 中的方法org.apache.hadoop.fs.ContentSummary
Retuns (disk) space consumed
getSpaceQuota() - 类 中的方法org.apache.hadoop.fs.ContentSummary
Returns (disk) space quota
getSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
Should speculative execution be used for this job?
getSpilledRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getSplit() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
getSplitHosts(BlockLocation[], long, long, NetworkTopology) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
This function identifies and returns the hosts that contribute most for a given split.
getSplitIndex() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
getSplitLocation() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
 
getSplitLocation() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
getSplitLocations() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
Get the split locations, applicable for map tasks
getSplits(int) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
Generate a list of prefixes to a given depth
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.examples.SleepJob.SleepInputFormat
 
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.examples.terasort.TeraInputFormat
 
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
Splits files returned by FileInputFormat.listStatus(JobConf) when they're too big.
getSplits(JobConf, int) - 接口 中的方法org.apache.hadoop.mapred.InputFormat
Logically split the set of input files for the job.
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
Build a CompositeInputSplit from the child InputFormats by assigning the ith split from each child to the ith composite split.
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
 
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
Logically split the set of input files for the job.
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingInputFormat
 
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
Logically splits the set of input files for the job, splits N lines of the input as one split.
getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.MultiFileInputFormat
已过时。
 
getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.InputFormat
Logically split the set of input files for the job.
getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
Logically split the set of input files for the job.
getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
Logically split the set of input files for the job.
getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
 
getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat
 
getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Generate the list of files and make them into FileSplits.
getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
Logically splits the set of input files for the job, splits N lines of the input as one split.
getSplits(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicInputFormat
Implementation of InputFormat::getSplits().
getSplits(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.UniformSizeInputFormat
Implementation of InputFormat::getSplits().
getSplitsForFile(FileStatus, Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
 
getSplitter(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
 
getSplitter(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBInputFormat
 
getSrcChecksum() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
Get the checksum of the source files from which Hadoop was built.
getSslConfigurationFile() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Get path where the ssl configuration file is present to use for hftps://
getStackTrace() - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
 
getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.JobClient
Grab the jobtracker's view of the staging directory path where job-specific files will be placed.
getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getStagingDir(JobClient, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
Initializes the staging directory and returns the path.
getStamp() - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
Returns the current generation stamp
getStart() - 类 中的方法org.apache.hadoop.mapred.FileSplit
The position of the first byte in the file to process.
getStart() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
 
getStart() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
 
getStart() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
The position of the first byte in the file to process.
getStartOffset() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
 
getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
getStartOffsets() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
Returns an array containing the startoffsets of the files in the split
getStartOffsets() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
Returns an array containing the start offsets of the files in the split
getStartTime() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getStartTime() - 类 中的方法org.apache.hadoop.mapred.TaskReport
Get start time of task.
getStartTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Get start time of the task.
getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the start time
getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
Get the start time of the task
getState() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
getState() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
 
getState() - 类 中的方法org.apache.hadoop.mapred.TaskReport
The most recent state, reported by a Reporter.
getState() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the state string
getState() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the state string
getState() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the state string
getStatement() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
 
getStatement() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
getStateString() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getStaticResolution(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Retrieves the resolved name for the passed host.
getStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
已过时。
getStatistics(String, Class<? extends FileSystem>) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Get the statistics for a particular file system
getStats() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get a set of statistics about the filesystem.
getStats() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getStatus() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getStatus() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Get the current TaskTrackerStatus of the TaskTracker.
getStatus() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
Get the last set status message.
getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
Get the status
getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
Get the event status
getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
Get the status
getStatusText(boolean) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
Get upgradeStatus data as a text for reporting.
getStorageDir(int) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
 
getStorageDirType() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Get storage directory type
getStorageDirType() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirType
 
getStorageID() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
getStorageID() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
 
getStorageInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getStorageInfo() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
Returns the storage id of the underlying storage
getStoredBlock(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
getStoredBlock(long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
 
getStr() - 类 中的方法org.apache.hadoop.mapred.join.Parser.StrToken
 
getStr() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
 
getStrategy(Configuration, DistCpOptions) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Returns the class that implements a copy strategy.
getStreamingAddr(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getStreamingSocket() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
 
getString() - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
Gets formatted string that describes LayoutVersion information.
getStringCollection(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the comma delimited values of the name property as a collection of Strings.
getStringCollection(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Returns a collection of strings.
getStringDescriptionFor(long) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
 
getStrings(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the comma delimited values of the name property as an array of Strings.
getStrings(String, String...) - 类 中的方法org.apache.hadoop.conf.Configuration
Get the comma delimited values of the name property as an array of Strings.
getStrings(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Returns an arraylist of strings.
getSubject() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Get the underlying subject from this ugi.
getSubmissionTime() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the job submission time.
getSubmissionTime() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
Get the Job submit time
getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the submit time
getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getSuccessfulJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
 
getSuccessfulJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
 
getSuccessfulMapAttemptCDFs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getSuccessfulReduceAttemptCDF() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getSuccessfulTaskAttempt() - 类 中的方法org.apache.hadoop.mapred.TaskReport
Get the attempt ID that took this task to completion
GetSuffix(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
getSum() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
 
getSum() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
 
getSummaryJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getSummaryJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getSupportedCompressionAlgorithms() - 类 中的静态方法org.apache.hadoop.io.file.tfile.TFile
Get names of supported compression algorithms.
getSwitch() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
Get Switch symbol
getSymlink(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
This method checks to see if symlinks are to be create for the localized cache files in the current working directory Used by internal DistributedCache code.
getSystemDir() - 类 中的方法org.apache.hadoop.mapred.JobClient
Grab the jobtracker system directory path where job-specific files are to be placed.
getSystemDir() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getSystemDir() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
getTabSize(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
getTag() - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
 
getTag(String) - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
已过时。
Returns a tag object which is can be a String, Integer, Short or Byte.
getTag(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
Get the tag value
getTagNames() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
已过时。
Returns the set of tag names
getTagsCopy() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
已过时。
Returns a copy of this record's tags.
getTargetPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Getter for the targetPath.
getTargets() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
 
getTask() - 类 中的方法org.apache.hadoop.mapred.JvmTask
 
getTask(JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Called upon startup by the child process, to fetch Task data.
getTask(JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Called when a child task process starts, to get its task.
getTaskAttemptID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
Get the taskAttemptID.
getTaskAttemptId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Returns task id.
getTaskAttemptID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
Get the unique name for this task attempt.
getTaskAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the attempt id
getTaskAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the attempt id
getTaskAttemptIDsPattern(String, Integer, Boolean, Integer, Integer) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
已过时。
getTaskAttemptInfo(TaskType, int, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get TaskAttemptInfo for a given task-attempt, without regard to impact of locality (e.g. not needed to make scheduling decisions).
getTaskAttemptInfo(TaskType, int, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
Get a TaskAttemptInfo with a TaskAttemptID associated with taskType, taskNumber, and taskAttemptNumber.
getTaskAttemptLogDir(TaskAttemptID, String, String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Get attempt log directory path for the given attempt-id under randomly selected mapred local directory.
getTaskAttempts() - 类 中的方法org.apache.hadoop.mapred.JobHistory.Task
Returns all task attempts for this task.
getTaskCompletionEvents(int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
getTaskCompletionEvents(JobID, int, int) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getTaskCompletionEvents(JobID, int, int) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
getTaskCompletionEvents(int) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get events indicating completion (success/failure) of component tasks.
getTaskCompletionEvents(int) - 类 中的方法org.apache.hadoop.mapreduce.Job
Get events indicating completion (success/failure) of component tasks.
getTaskController() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getTaskController() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
Get the taskController for deleting logs.
getTaskDiagnostics(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get the diagnostics for a given task
getTaskDiagnostics(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
Returns the diagnostic information for a particular task in the given job.
getTaskDiagnostics(TaskAttemptID) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Gets the diagnostic messages for a given task attempt.
getTaskDistributedCacheManager(JobID) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
 
getTaskFailures() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the number of tasks that have failed on this tracker.
getTaskID() - 类 中的方法org.apache.hadoop.mapred.Task
 
getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptID
 
getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
已过时。
getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
Getter/Setter methods for log4j.
getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskReport
已过时。
getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskReport
The id of the task.
getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getTaskID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
Returns the TaskID object that this task attempt belongs to
getTaskID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the task ID
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the Task ID
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the task ID
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the task id
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the task id
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
Get the task id
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
Get task id
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
Get the task id
getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
Get the task ID
getTaskIDsPattern(String, Integer, Boolean, Integer) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
已过时。
getTaskInfo(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
getTaskInfo(TaskType, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get TaskInfo for a given task.
getTaskInfo() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
Get the TaskInfo for the given task-attempt.
getTaskInfo(TaskType, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getTaskInProgress(TaskID) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return the TaskInProgress that matches the tipid.
getTaskLogFile(TaskAttemptID, boolean, TaskLog.LogName) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
 
getTaskLogLength(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
Get the desired maximum length of task's logs.
getTaskLogsUrl(JobHistory.TaskAttempt) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
Return the TaskLogsUrl of a particular TaskAttempt
getTaskLogUrl(String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLogServlet
Construct the taskLogUrl
getTaskMemory() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
 
getTaskMemoryManager() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getTaskOutputFilter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
Get the task output filter out of the JobConf.
getTaskOutputFilter() - 类 中的方法org.apache.hadoop.mapred.JobClient
已过时。
getTaskOutputPath(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Helper function to create the task's temporary output directory and return the path to the task's output file.
getTaskReports() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
Get the current tasks at the TaskTracker.
getTaskRunTime() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Returns time (in millisec) the task took to complete.
getTasksInfoJson() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getTasksInfoJson() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
getTaskStatus() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Returns enum Status.SUCESS or Status.FAILURE.
getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the task status
getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the task status
getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the task status
getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the task status
getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
Get the task status
getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
Get task status
getTaskTracker(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getTaskTracker() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
getTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the number of active trackers in the cluster.
getTaskTrackerHttp() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
http location of the tasktracker where this task ran.
getTaskTrackerInstrumentation() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getTaskTrackerReportAddress() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Return the port at which the tasktracker bound to
getTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the number of active task trackers in the cluster.
getTaskTrackerStatus(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Get the task type
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Get the task type
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Get the task type
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the task type
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Get the task type
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
Get the task type
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
Get task type
getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
Get the task type
getTerm() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Get the term.
getText() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
Get the text that represents a document.
getText() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
The text of the document id.
getThreadCount() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getThreadCount() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getThreads() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getThreads() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the number of threads.
getThreadState() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
 
getTimeout(Configuration) - 类 中的静态方法org.apache.hadoop.ipc.Client
The time after which a RPC will timeout.
getTimestamp(Configuration, URI) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Returns mtime of a given cache file on hdfs.
getTip(TaskID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Returns specified TaskInProgress, or null.
getTmax(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
getTmpInputStreams(Block, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Returns handles to the block file and its metadata file
getTmpInputStreams(Block, long, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns an input stream at specified offset of the specified block The block is still in the tmp directory and is not finalized
getToken(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
getToken(HttpServletRequest) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns the AuthenticationToken for the request.
getToken(Text) - 类 中的方法org.apache.hadoop.security.Credentials
Returns the Token object for the alias
getTokenExpiryTime(DelegationTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Returns expiry time of a token given its identifier.
getTokenIdentifiers() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Get the set of TokenIdentifiers belonging to this UGI
getTokenLifetime() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
getTokens() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Obtain the collection of tokens associated with this user.
getTokenServiceAddr(Token<?>) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Decode the given token's service field into an InetAddress
getTopologyPaths() - 类 中的方法org.apache.hadoop.fs.BlockLocation
Get the list of network topology paths for each of the hosts.
getTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets total raw bytes including non-dfs used space.
getTotalBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getTotalBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the total numbers of blocks on the cluster.
getTotalBytesRead() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
Getter for the number of bytes read from this stream, since creation.
getTotalCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
Get the counters for the job
getTotalFiles() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getTotalFiles() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the total number of files on the cluster
getTotalJobSubmissions() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
Get the total number of job submissions in the cluster.
getTotalLoad() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSClusterStats
an indication of the total load of the cluster.
getTotalLoad() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Total number of connections.
getTotalLoad() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Total Load on the FSNamesystem
getTotalLogFileSize() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
 
getTotalMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
Get the total number of maps
getTotalMaps() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getTotalReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
Get the total number of reduces
getTotalReduces() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getTotalSleepTime() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
Getter the total time spent in sleep.
getTotalSubmissions() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getTrackerIdentifier() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get the unique identifier (ie. timestamp) of this job tracker start.
getTrackerName() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
 
getTrackerName() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Get the unique identifier for the TaskTracker
getTrackerName() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Get the tracker name
getTrackerPort() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getTrackingURL() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the URL where some job progress information will be displayed.
getTrackingURL() - 类 中的方法org.apache.hadoop.mapreduce.Job
Get the URL where some job progress information will be displayed.
getTrash() - 类 中的方法org.apache.hadoop.fs.FsShell
 
getTTExpiryInterval() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
Get the tasktracker expiry interval for the cluster
getType() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
Get the type of the software component, which this object is upgrading.
getType() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
getType() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
 
getType() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
 
getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
 
getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
 
getType() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
 
getType() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
 
getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
 
getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
 
getType() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
 
getType() - 接口 中的方法org.apache.hadoop.security.authentication.server.AuthenticationHandler
Returns the authentication type of the authentication handler.
getType() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Returns the authentication mechanism of the token.
getType() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Returns the authentication type of the authentication handler, 'kerberos'.
getType() - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
Returns the authentication type of the authentication handler, 'simple'.
getType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
Get the type code embedded in the first byte.
getTypeID() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
get the field's TypeID object
getTypes() - 类 中的方法org.apache.hadoop.io.GenericWritable
Return all classes that may be wrapped.
getTypeVal() - 类 中的方法org.apache.hadoop.record.meta.TypeID
Get the type value.
getUGI(HttpServletRequest, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
Same as getUGI(null, request, conf).
getUGI(ServletContext, HttpServletRequest, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
Get UserGroupInformation and possibly the delegation token out of the request.
getUGI(ServletContext, HttpServletRequest, Configuration, UserGroupInformation.AuthenticationMethod, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
Get UserGroupInformation and possibly the delegation token out of the request.
getUlimitMemoryCommand(int) - 类 中的静态方法org.apache.hadoop.util.Shell
Get the Unix command for setting the maximum virtual memory available to a given child process.
getUlimitMemoryCommand(Configuration) - 类 中的静态方法org.apache.hadoop.util.Shell
getUMask(Configuration) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
Get the user file creation mask (umask) UMASK_LABEL config param has umask value that is either symbolic or octal.
getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
Return the underlying protocol that is used to talk to the namenode.
getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
 
getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
Return the underlying protocol that is used to talk to the namenode.
getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem.TokenManager
 
getUnderReplicatedBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getUnderReplicatedBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Blocks under replicated
getUnderReplicatedBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Returns count of blocks with one of more replica missing.
getUnderReplicatedBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Returns count of blocks with one of more replica missing.
getUniqueFile(TaskAttemptContext, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Generate a unique filename, based on the task id, name, and extension
getUniqueItems() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
 
getUniqueName(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Helper function to generate a name that is unique for the task.
getUnits(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
getUpgradePermission() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Return the default path permission when upgrading from releases with no permissions (<=0.15) to releases with permissions (>=0.16)
getUpgradeState() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
getUpgradeStatus() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
Upgrade status determines a percentage of the work done out of the total amount required by the upgrade. 100% means that the upgrade is completed.
getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
 
getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
Get upgrade upgradeStatus as a percentage of the total upgrade done.
getUpgradeStatusReport(boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
Get status report for the upgrade.
getUpgradeStatusReport(boolean) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
 
getUpgradeStatusText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
getUpgradeVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
getUpperClause() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
 
getUri() - 类 中的方法org.apache.hadoop.fs.FileSystem
Returns a URI whose scheme and authority identify this FileSystem.
getUri() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Returns a URI whose scheme and authority identify this FileSystem.
getUri() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
getUri() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
Returns the uri of this filesystem.
getUri() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
getUri() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
getUri() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
getUri() - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
getUri() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getUri() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getUri(InetSocketAddress) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
getUri() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getURIs(String, String) - 类 中的方法org.apache.hadoop.streaming.StreamJob
get the uris of all the files/caches
getURL() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
 
getURL() - 类 中的方法org.apache.hadoop.mapred.JobProfile
Get the link to the web-ui for details of the job.
getUrl() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
Get the subversion URL for the root Hadoop directory.
getUsed() - 类 中的方法org.apache.hadoop.fs.DF
 
getUsed() - 类 中的方法org.apache.hadoop.fs.DU
 
getUsed() - 类 中的方法org.apache.hadoop.fs.FileSystem
Return the total size of all files in the filesystem.
getUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the used space by data nodes.
getUsedMemory() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
已过时。
getUseNewMapper() - 类 中的方法org.apache.hadoop.mapred.JobConf
Should the framework use the new context-object code for running the mapper?
getUseNewReducer() - 类 中的方法org.apache.hadoop.mapred.JobConf
Should the framework use the new context-object code for running the reducer?
getUser() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
getUser() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the reported username for this job.
getUser() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Get the user for the job
getUser() - 类 中的方法org.apache.hadoop.mapred.JobProfile
Get the user id.
getUser() - 类 中的方法org.apache.hadoop.mapred.Task
Get the name of the user running the job/task.
getUser() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
Get the Ugi with the username encoded in the token identifier
getUser() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
Get the username encoded in the token identifier
getUser() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
Get the Ugi with the username encoded in the token identifier
getUser() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
Get the user who ran the job.
getUser() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
getUser() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
 
getUser() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
The user that compiled Hadoop.
getUserAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
Return user FsAction.
getUserDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
 
getUserId() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
getUserLogCleaner() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
getUserLogDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
 
getUserName() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
Return user name
getUserName(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Get the user name from the job conf
getUsername() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
getUserName() - 类 中的方法org.apache.hadoop.security.authentication.client.PseudoAuthenticator
Returns the current user name.
getUserName() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Returns the user name.
getUserName() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Get the user's full principal name.
getUserName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the user name
getUsersForNetgroup(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
Calls JNI function to get users for a netgroup, since C functions are not reentrant we need to make this synchronized (see documentation for setnetgrent, getnetgrent and endnetgrent)
getUsersForNetgroupCommand(String) - 类 中的静态方法org.apache.hadoop.util.Shell
a Unix command to get a given netgroup's user list
getUserToGroupsMappingService() - 类 中的静态方法org.apache.hadoop.security.Groups
Get the groups being used to map user-to-groups.
getUserToGroupsMappingService(Configuration) - 类 中的静态方法org.apache.hadoop.security.Groups
 
getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
 
getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
 
getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
 
getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
 
getValByRegex(String) - 类 中的方法org.apache.hadoop.conf.Configuration
get keys matching the the regex
getValidity() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns the validity time of the generated tokens.
getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.BlockSizeParam
 
getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.BufferSizeParam
 
getValue() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
 
getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.ReplicationParam
 
getValue(HttpContext) - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
 
getValue(BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Copy the value into BytesWritable.
getValue(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Copy value into user-supplied buffer.
getValue(byte[], int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Copy value into user-supplied buffer.
getValue() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
Gets the current raw value
getValue() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
Gets the current raw value.
getValue() - 类 中的方法org.apache.hadoop.mapreduce.Counter
What is the current value of this counter?
getValue() - 枚举 中的方法org.apache.hadoop.mapreduce.JobStatus.State
 
getValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
getValue() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
Get the typed bytes as a Java object.
getValue() - 类 中的方法org.apache.hadoop.util.DataChecksum
 
getValue() - 枚举 中的方法org.apache.hadoop.util.ProcessTree.Signal
 
getValue() - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
getValueClass() - 类 中的方法org.apache.hadoop.io.ArrayWritable
 
getValueClass() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Returns the class of values in this file.
getValueClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns the class of values in this file.
getValueClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
Returns the class of values in this file.
getValueClass() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
The class of value that must be passed to SequenceFileRecordReader.next(Object, Object)..
getValueClassName() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns the name of the value class.
getValueClassName() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Retrieve the name of the value class for this SequenceFile.
getValueClassName() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Retrieve the name of the value class for this SequenceFile.
getValueLength() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Get the length of the value. isValueLengthKnown() must be tested true.
getValues() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
Iterate through the values for the current key, reusing the same value object, which is stored in the context.
getValueStream() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Stream access to value.
getValueTypeID() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
get the TypeID of the map's value element
getVectorSize() - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
getVersion() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
Get the version number of the entire index.
getVersion() - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
Get the layout version of the upgrade object.
getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
Get the layout version of the currently running upgrade.
getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
Get the version
getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
Gets the version of Hadoop.
getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Gets the version of Hadoop.
getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
 
getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
getVersion() - 类 中的方法org.apache.hadoop.io.VersionedWritable
Return the version number of the current implementation.
getVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getVersion() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
 
getVersion() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
getVersion() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
getVersion() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
Get the Hadoop version.
getVersionFile() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
File VERSION contains the following fields: node type layout version namespaceID fs state creation time other fields specific for this node type The version file is always written last during storage directory updates.
getVersionTable() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
Return a table containing version information.
getVIntSize(long) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Get the encoded length if an integer is stored in a variable-length format
getVIntSize(long) - 类 中的静态方法org.apache.hadoop.record.Utils
Get the encoded length if an integer is stored in a variable-length format
getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
已过时。
Obtain the total size of the virtual memory present in the system.
getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Obtain the total size of the virtual memory present in the system.
getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.MemoryCalculatorPlugin
已过时。
Obtain the total size of the virtual memory present in the system.
getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
Obtain the total size of the virtual memory present in the system.
getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
Obtain the virtual memory size used by a current process tree.
getVirtualMemoryUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Get the virtual memory usage.
getVisibleLength() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
 
getVisibleLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
getVisibleLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Returns the specified block's visible length (has metadata for this)
getVIVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
getVolumeInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Returned information is a JSON representation of a map with volume name as the key and value is a map of volume attribute keys to its values
getVolumeInfo() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
Gets the information of each volume on the Datanode.
getWaitingJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
 
getWaitingJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
 
getWarn() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
 
getWarningText(FSNamesystem) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
getWebAppsPath() - 类 中的方法org.apache.hadoop.http.HttpServer
Get the pathname to the webapps files.
getWeight() - 类 中的方法org.apache.hadoop.util.bloom.Key
 
getWithWildcardGS() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
getWorkflowAdjacencies(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Get the workflow adjacencies from the job conf The string returned is of the form "key"="value" "key"="value" ...
getWorkflowAdjacencies() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the workflow adjacencies
getWorkflowId() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the workflow Id
getWorkflowName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the workflow name
getWorkflowNodeName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the workflow node name
getWorkflowTags() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
Get the workflow tags
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.FileSystem
Get the current working directory for the given file system
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Get the current working directory for the given file system
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
return the top level archive.
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
getWorkingDirectory() - 类 中的方法org.apache.hadoop.mapred.JobConf
Get the current working directory for the default file system.
getWorkingDirectory() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
Get the current working directory for the default file system.
getWorkingDirectory(Job) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
Getter for the working directory.
getWorkOutputPath(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Get the Path to the task's temporary output directory for the map-reduce job

Tasks' Side-Effect Files Note: The following is valid only if the OutputCommitter is FileOutputCommitter.

getWorkOutputPath(TaskInputOutputContext<?, ?, ?, ?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Get the Path to the task's temporary output directory for the map-reduce job

Tasks' Side-Effect Files Some applications need to create/write-to side-files, which differ from the actual job-outputs.

getWorkPath() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Get the directory that the task should write results into
getWrappedStream() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
 
getWriteOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Get the number of file system write operations such as create, append rename etc.
getXceiverCount() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
number of active connections
getXceiverCount() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Number of concurrent xceivers per node.
getXceiverCount() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
Returns an estimate of the number of Datanode threads actively transferring blocks.
getZlibCompressor(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
Return the appropriate implementation of the zlib compressor.
getZlibCompressorType(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
Return the appropriate type of the zlib compressor.
getZlibDecompressor(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
Return the appropriate implementation of the zlib decompressor.
getZlibDecompressorType(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
Return the appropriate type of the zlib decompressor.
GlobbedCopyListing - org.apache.hadoop.tools.distcp2中的类
GlobbedCopyListing implements the CopyListing interface, to create the copy listing-file by "globbing" all specified source paths (wild-cards and all.)
GlobbedCopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.GlobbedCopyListing
Constructor, to initialize the configuration.
GlobFilter - org.apache.hadoop.metrics2.filter中的类
A glob pattern filter for metrics
GlobFilter() - 类 的构造器org.apache.hadoop.metrics2.filter.GlobFilter
 
GlobPattern - org.apache.hadoop.fs中的类
A class for POSIX glob pattern with brace expansions.
GlobPattern(String) - 类 的构造器org.apache.hadoop.fs.GlobPattern
Construct the glob pattern object with a glob pattern string
globStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Return all the files that match filePattern and are not checksum files.
globStatus(Path, PathFilter) - 类 中的方法org.apache.hadoop.fs.FileSystem
Return an array of FileStatus objects whose path names match pathPattern and is accepted by the user-supplied path filter.
go() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
Process image file.
go() - 类 中的方法org.apache.hadoop.streaming.StreamJob
已过时。
goodClassOrNull(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
It may seem strange to silently switch behaviour when a String is not a classname; the reason is simplified Usage: -mapper [classname | program ] instead of the explicit Usage: [-mapper program | -javamapper classname], -mapper and -javamapper are mutually exclusive.
GRANDFATHER_GENERATION_STAMP - 类 中的静态变量org.apache.hadoop.hdfs.protocol.Block
 
graylistedTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get the statuses of the graylisted task trackers in the cluster.
GREATER_ICOST - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
Grep - org.apache.hadoop.examples中的类
 
GroupParam - org.apache.hadoop.hdfs.web.resources中的类
Group parameter.
GroupParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.GroupParam
Constructor.
Groups - org.apache.hadoop.security中的类
A user-to-groups mapping service.
Groups(Configuration) - 类 的构造器org.apache.hadoop.security.Groups
 
groups - 类 中的变量org.apache.hadoop.tools.rumen.JhCounters
 
GSet<K,E extends K> - org.apache.hadoop.hdfs.util中的接口
A GSet is set, which supports the GSet.get(Object) operation.
GSetByHashMap<K,E extends K> - org.apache.hadoop.hdfs.util中的类
A GSet implementation by HashMap.
GSetByHashMap(int, float) - 类 的构造器org.apache.hadoop.hdfs.util.GSetByHashMap
 
GT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
GzipCodec - org.apache.hadoop.io.compress中的类
This class creates gzip compressors/decompressors.
GzipCodec() - 类 的构造器org.apache.hadoop.io.compress.GzipCodec
 
GzipCodec.GzipOutputStream - org.apache.hadoop.io.compress中的类
A bridge that wraps around a DeflaterOutputStream to make it a CompressionOutputStream.
GzipCodec.GzipOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
 
GzipCodec.GzipOutputStream(CompressorStream) - 类 的构造器org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
Allow children types to put a different type in here.

H

Hadoop20JHParser - org.apache.hadoop.tools.rumen中的类
JobHistoryParser to parse job histories for hadoop 0.20 (META=1).
Hadoop20JHParser(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.Hadoop20JHParser
 
Hadoop20JHParser(LineReader) - 类 的构造器org.apache.hadoop.tools.rumen.Hadoop20JHParser
 
HADOOP_JETTY_LOGS_SERVE_ALIASES - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
Enable/Disable aliases serving from jetty
HADOOP_RELAXED_VERSION_CHECK_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
HADOOP_RELAXED_VERSION_CHECK_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_SECURITY_AUTHENTICATION - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_SECURITY_AUTHORIZATION - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_SECURITY_GROUP_MAPPING - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_SECURITY_INSTRUMENTATION_REQUIRES_ADMIN - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_SECURITY_SERVICE_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_SECURITY_TOKEN_SERVICE_USE_IP - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_SECURITY_TOKEN_SERVICE_USE_IP_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
HADOOP_SECURITY_USE_WEAK_HTTP_CRYPTO_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
HADOOP_SECURITY_USE_WEAK_HTTP_CRYPTO_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
HADOOP_SKIP_VERSION_CHECK_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
HADOOP_SKIP_VERSION_CHECK_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
See src/core/core-default.xml
HADOOP_TOKEN_FILE_LOCATION - 类 中的静态变量org.apache.hadoop.security.UserGroupInformation
Environment variable pointing to the token cache file
HadoopArchives - org.apache.hadoop.tools中的类
a archive creation utility.
HadoopArchives(Configuration) - 类 的构造器org.apache.hadoop.tools.HadoopArchives
 
HadoopLogsAnalyzer - org.apache.hadoop.tools.rumen中的类
已过时。
HadoopLogsAnalyzer() - 类 的构造器org.apache.hadoop.tools.rumen.HadoopLogsAnalyzer
已过时。
 
HadoopStreaming - org.apache.hadoop.streaming中的类
The main entrypoint.
HadoopStreaming() - 类 的构造器org.apache.hadoop.streaming.HadoopStreaming
 
HadoopVersionAnnotation - org.apache.hadoop中的注释类型
A package attribute that captures the version of Hadoop that was compiled.
halfDigest() - 类 中的方法org.apache.hadoop.io.MD5Hash
Construct a half-sized version of this MD5.
handle(Map<JobHistory.Keys, String>) - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
 
handle(JobHistory.RecordTypes, Map<JobHistory.Keys, String>) - 接口 中的方法org.apache.hadoop.mapred.JobHistory.Listener
Callback method for history parser.
handle(Callback[]) - 类 中的方法org.apache.hadoop.security.SaslRpcServer.SaslDigestCallbackHandler
handle(Callback[]) - 类 中的方法org.apache.hadoop.security.SaslRpcServer.SaslGssCallbackHandler
handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
 
handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
 
handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem.TokenManager
 
handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
 
handleKind(Text) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
 
handleKind(Text) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
 
handleKind(Text) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
Does this renewer handle this kind of token?
HardLink - org.apache.hadoop.fs中的类
Class for creating hardlinks.
HardLink() - 类 的构造器org.apache.hadoop.fs.HardLink
 
HardLink.LinkStats - org.apache.hadoop.fs中的类
HardLink statistics counters and methods.
HardLink.LinkStats() - 类 的构造器org.apache.hadoop.fs.HardLink.LinkStats
 
HardLink.OSType - org.apache.hadoop.fs中的枚举
 
HarFileSystem - org.apache.hadoop.fs中的类
This is an implementation of the Hadoop Archive Filesystem.
HarFileSystem() - 类 的构造器org.apache.hadoop.fs.HarFileSystem
public construction of harfilesystem
HarFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.fs.HarFileSystem
Constructor to create a HarFileSystem with an underlying filesystem.
has(int) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
Return true if tuple has an element at the position provided.
hasAdministratorAccess(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.http.HttpServer
Does the user sending the HttpServletRequest has the administrator ACLs?
hasChildren() - 类 中的方法org.apache.hadoop.tools.rumen.Node
Does this node have any children?
hasEnoughResource() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Return true - if there are still valid volumes on the DataNode.
hasEnoughResource() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
checks how many valid storage volumes are there in the DataNode
HasFileDescriptor - org.apache.hadoop.fs中的接口
Having a FileDescriptor
hash - 类 中的变量org.apache.hadoop.util.bloom.Filter
The hash function used to map a key to several positions in the vector.
hash(Key) - 类 中的方法org.apache.hadoop.util.bloom.HashFunction
Hashes a specified key into several integers.
Hash - org.apache.hadoop.util.hash中的类
This class represents a common API for hashing functions.
Hash() - 类 的构造器org.apache.hadoop.util.hash.Hash
 
hash(byte[]) - 类 中的方法org.apache.hadoop.util.hash.Hash
Calculate a hash using all bytes from the input argument, and a seed of -1.
hash(byte[], int) - 类 中的方法org.apache.hadoop.util.hash.Hash
Calculate a hash using all bytes from the input argument, and a provided seed value.
hash(byte[], int, int) - 类 中的方法org.apache.hadoop.util.hash.Hash
Calculate a hash using bytes from 0 to length, and the provided seed value
hash(byte[], int, int) - 类 中的方法org.apache.hadoop.util.hash.JenkinsHash
taken from hashlittle() -- hash a variable-length key into a 32-bit value
hash(byte[], int, int) - 类 中的方法org.apache.hadoop.util.hash.MurmurHash
 
HASH_COUNT - 类 中的静态变量org.apache.hadoop.io.BloomMapFile
 
hashBytes(byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Compute hash for binary data.
hashBytes(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Compute hash for binary data.
hashCode() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
 
hashCode() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
 
hashCode() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
 
hashCode() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
 
hashCode() - 类 中的方法org.apache.hadoop.fs.FileChecksum
hashCode() - 类 中的方法org.apache.hadoop.fs.FileStatus
Returns a hash code value for the object, which is defined as the hash code of the path name.
hashCode() - 类 中的方法org.apache.hadoop.fs.Path
 
hashCode() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
hashCode() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
hashCode() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
hashCode() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
hashCode() - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
hashCode() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
 
hashCode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
 
hashCode() - 类 中的方法org.apache.hadoop.hdfs.util.ByteArray
 
hashCode() - 类 中的方法org.apache.hadoop.io.BinaryComparable
Return a hash of the bytes returned from {#getBytes()}.
hashCode() - 类 中的方法org.apache.hadoop.io.BooleanWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.BytesWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.ByteWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.DoubleWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
 
hashCode() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
 
hashCode() - 类 中的方法org.apache.hadoop.io.FloatWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.IntWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.LongWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.MD5Hash
Returns a hash code value for this object.
hashCode() - 类 中的方法org.apache.hadoop.io.NullWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
 
hashCode() - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
hashCode() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
 
hashCode() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.Text
 
hashCode() - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
 
hashCode() - 类 中的方法org.apache.hadoop.io.VIntWritable
 
hashCode() - 类 中的方法org.apache.hadoop.io.VLongWritable
 
hashCode() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
 
hashCode() - 类 中的方法org.apache.hadoop.mapred.Counters
 
hashCode() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
 
hashCode() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
 
hashCode(byte[], int, int, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
 
hashCode() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
 
hashCode() - 类 中的方法org.apache.hadoop.mapred.TaskReport
 
hashCode() - 类 中的方法org.apache.hadoop.mapreduce.Counter
 
hashCode() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
 
hashCode() - 类 中的方法org.apache.hadoop.mapreduce.Counters
 
hashCode() - 类 中的方法org.apache.hadoop.mapreduce.ID
 
hashCode() - 类 中的方法org.apache.hadoop.mapreduce.JobID
 
hashCode(byte[], int, int, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
 
hashCode() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
 
hashCode() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
 
hashCode() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
hashCode() - 类 中的方法org.apache.hadoop.metrics2.Metric
 
hashCode() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
 
hashCode() - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
hashCode() - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
 
hashCode() - 类 中的方法org.apache.hadoop.record.Buffer
 
hashCode() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
We use a basic hashcode implementation, since this class will likely not be used as a hashmap key
hashCode() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
We use a basic hashcode implementation, since this class will likely not be used as a hashmap key
hashCode() - 类 中的方法org.apache.hadoop.record.meta.TypeID
We use a basic hashcode implementation, since this class will likely not be used as a hashmap key
hashCode() - 类 中的方法org.apache.hadoop.record.meta.VectorTypeID
We use a basic hashcode implementation, since this class will likely not be used as a hashmap key
hashCode() - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
Return the hashcode for the token.
hashCode() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
hashCode() - 类 中的方法org.apache.hadoop.security.token.Token
 
hashCode() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Return the hash of the subject.
hashCode() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
 
hashCode() - 类 中的方法org.apache.hadoop.tools.rumen.Node
 
hashCode() - 类 中的方法org.apache.hadoop.util.bloom.Key
 
hashFromString(String, SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
Aux util to calculate hash of a String
HashFunction - org.apache.hadoop.util.bloom中的类
Implements a hash object that returns a certain number of hashed values.
HashFunction(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.HashFunction
Constructor.
HashingDistributionPolicy - org.apache.hadoop.contrib.index.example中的类
Choose a shard for each insert or delete based on document id hashing.
HashingDistributionPolicy() - 类 的构造器org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
 
HashPartitioner<K2,V2> - org.apache.hadoop.mapred.lib中的类
Partition keys by their Object.hashCode().
HashPartitioner() - 类 的构造器org.apache.hadoop.mapred.lib.HashPartitioner
 
HashPartitioner<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
Partition keys by their Object.hashCode().
HashPartitioner() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.HashPartitioner
 
hashType - 类 中的变量org.apache.hadoop.util.bloom.Filter
Type of hashing function to use.
hasKerberosCredentials() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
checks if logged in using kerberos
hasMore() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
Check if there are more entries that are left to be listed
hasNext() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
hasNext() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
hasNext() - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
Returns true if the stream is not empty, but provides no guarantee that a call to next(K,V) will succeed.
hasNext() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Return true if it is possible that this could emit more values.
hasNext() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
hasNext() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
hasNext() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
hasNext() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
True if a call to next may return a value.
hasNext() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
 
hasNext() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Return true if the RR- including the k,v pair stored in this object- is exhausted.
hasNext() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
 
hasNext() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
 
hasRecovered() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Whether the JT has recovered upon restart
hasRestarted() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Whether the JT has restarted
hasSimpleInputSpecs_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
hasWildcard() - 类 中的方法org.apache.hadoop.fs.GlobPattern
 
hbMakeCodeLengths(char[], int[], int, int) - 类 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This method is accessible by subclasses for historical purposes.
HDFS_DELEGATION_KIND - 类 中的静态变量org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenIdentifier
 
HDFSConcat - org.apache.hadoop.hdfs.tools中的类
 
HDFSConcat() - 类 的构造器org.apache.hadoop.hdfs.tools.HDFSConcat
 
HdfsConstants - org.apache.hadoop.hdfs.server.common中的接口
Some handy internal HDFS constants
HdfsConstants.NodeType - org.apache.hadoop.hdfs.server.common中的枚举
Type of the node
HdfsConstants.StartupOption - org.apache.hadoop.hdfs.server.common中的枚举
 
HdfsFileStatus - org.apache.hadoop.hdfs.protocol中的类
Interface that represents the over the wire information for a file.
HdfsFileStatus() - 类 的构造器org.apache.hadoop.hdfs.protocol.HdfsFileStatus
default constructor
HdfsFileStatus(long, boolean, int, long, long, long, FsPermission, String, String, byte[]) - 类 的构造器org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Constructor
HDFSMonitorThread - org.apache.hadoop.mapred中的类
 
HDFSMonitorThread(Configuration, JobTracker, FileSystem) - 类 的构造器org.apache.hadoop.mapred.HDFSMonitorThread
 
HDFSPolicyProvider - org.apache.hadoop.hdfs中的类
PolicyProvider for HDFS protocols.
HDFSPolicyProvider() - 类 的构造器org.apache.hadoop.hdfs.HDFSPolicyProvider
 
HEADER - 类 中的静态变量org.apache.hadoop.ipc.Server
The first four bytes of Hadoop RPC connections
HEADER_LEN - 类 中的静态变量org.apache.hadoop.util.DataChecksum
 
headMap(WritableComparable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
HEALTHY_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
 
HeapSort - org.apache.hadoop.util中的类
An implementation of the core algorithm of HeapSort.
HeapSort() - 类 的构造器org.apache.hadoop.util.HeapSort
 
heartbeat(TaskTrackerStatus, boolean, boolean, boolean, short) - 类 中的方法org.apache.hadoop.mapred.JobTracker
The periodic heartbeat mechanism between the TaskTracker and the JobTracker.
HEARTBEAT_INTERVAL - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
height - 类 中的变量org.apache.hadoop.examples.dancing.Pentomino
 
height - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
height of the graph w/o margins
hexchars - 类 中的静态变量org.apache.hadoop.record.Utils
 
hexStringToByte(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Given a hexstring this will return the byte array corresponding to the string
HFTP_DATE_FORMAT - 类 中的静态变量org.apache.hadoop.hdfs.HftpFileSystem
 
HFTP_TIMEZONE - 类 中的静态变量org.apache.hadoop.hdfs.HftpFileSystem
 
HftpFileSystem - org.apache.hadoop.hdfs中的类
An implementation of a protocol for accessing filesystems over HTTP.
HftpFileSystem() - 类 的构造器org.apache.hadoop.hdfs.HftpFileSystem
 
HftpFileSystem.TokenManager - org.apache.hadoop.hdfs中的类
 
HftpFileSystem.TokenManager() - 类 的构造器org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
 
HistoryEvent - org.apache.hadoop.tools.rumen中的接口
 
hostName - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
HostName as suplied by the datanode during registration as its name.
HOSTNAME_PATTERN - 类 中的静态变量org.apache.hadoop.security.SecurityUtil
 
HostsFileReader - org.apache.hadoop.util中的类
 
HostsFileReader(String, String) - 类 的构造器org.apache.hadoop.util.HostsFileReader
 
HsftpFileSystem - org.apache.hadoop.hdfs中的类
An implementation of a protocol for accessing filesystems over HTTPS.
HsftpFileSystem() - 类 的构造器org.apache.hadoop.hdfs.HsftpFileSystem
 
HsftpFileSystem.DummyHostnameVerifier - org.apache.hadoop.hdfs中的类
Dummy hostname verifier that is used to bypass hostname checking
HsftpFileSystem.DummyHostnameVerifier() - 类 的构造器org.apache.hadoop.hdfs.HsftpFileSystem.DummyHostnameVerifier
 
HsftpFileSystem.TokenManager - org.apache.hadoop.hdfs中的类
 
HsftpFileSystem.TokenManager() - 类 的构造器org.apache.hadoop.hdfs.HsftpFileSystem.TokenManager
 
HTML_TAIL - 类 中的静态变量org.apache.hadoop.util.ServletUtil
 
htmlFooter() - 类 中的静态方法org.apache.hadoop.util.ServletUtil
HTML footer to be added in the jsps.
HtmlQuoting - org.apache.hadoop.http中的类
This class is responsible for quoting HTML characters.
HtmlQuoting() - 类 的构造器org.apache.hadoop.http.HtmlQuoting
 
HTTP_HEADER_REPLY_URL_HASH - 类 中的静态变量org.apache.hadoop.mapreduce.security.SecureShuffleUtils
 
HTTP_HEADER_URL_HASH - 类 中的静态变量org.apache.hadoop.mapreduce.security.SecureShuffleUtils
 
HttpOpParam<E extends Enum<E> & HttpOpParam.Op> - org.apache.hadoop.hdfs.web.resources中的类
Http operation parameter.
HttpOpParam.Op - org.apache.hadoop.hdfs.web.resources中的接口
Http operation interface.
HttpOpParam.TemporaryRedirectOp - org.apache.hadoop.hdfs.web.resources中的类
Expects HTTP response 307 "Temporary Redirect".
HttpOpParam.Type - org.apache.hadoop.hdfs.web.resources中的枚举
Http operation types
HttpServer - org.apache.hadoop.http中的类
Create a Jetty embedded server to answer http requests.
HttpServer(String, String, int, boolean) - 类 的构造器org.apache.hadoop.http.HttpServer
Same as this(name, bindAddress, port, findPort, null);
HttpServer(String, String, int, boolean, Configuration) - 类 的构造器org.apache.hadoop.http.HttpServer
 
HttpServer(String, String, int, boolean, Configuration, Connector) - 类 的构造器org.apache.hadoop.http.HttpServer
 
HttpServer(String, String, int, boolean, Configuration, AccessControlList) - 类 的构造器org.apache.hadoop.http.HttpServer
Create a status server on the given port.
HttpServer(String, String, int, boolean, Configuration, AccessControlList, Connector) - 类 的构造器org.apache.hadoop.http.HttpServer
 
HttpServer.QuotingInputFilter - org.apache.hadoop.http中的类
A Servlet input filter that quotes all HTML active characters in the parameter names and values.
HttpServer.QuotingInputFilter() - 类 的构造器org.apache.hadoop.http.HttpServer.QuotingInputFilter
 
HttpServer.QuotingInputFilter.RequestQuoter - org.apache.hadoop.http中的类
 
HttpServer.QuotingInputFilter.RequestQuoter(HttpServletRequest) - 类 的构造器org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
 
HttpServer.StackServlet - org.apache.hadoop.http中的类
A very simple servlet to serve up a text representation of the current stack traces.
HttpServer.StackServlet() - 类 的构造器org.apache.hadoop.http.HttpServer.StackServlet
 
humanReadableInt(long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Given an integer, return a string that is in an approximate, but human readable format.

I

ID - org.apache.hadoop.mapred中的类
A general identifier, which internally stores the id as an integer.
ID(int) - 类 的构造器org.apache.hadoop.mapred.ID
constructs an ID object from the given int
ID() - 类 的构造器org.apache.hadoop.mapred.ID
 
id() - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
Return the position in the collector this class occupies.
id() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Return the position in the collector this class occupies.
id - 类 中的变量org.apache.hadoop.mapred.join.Parser.Node
 
id() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Return the position in the collector this class occupies.
ID - org.apache.hadoop.mapreduce中的类
A general identifier, which internally stores the id as an integer.
ID(int) - 类 的构造器org.apache.hadoop.mapreduce.ID
constructs an ID object from the given int
ID() - 类 的构造器org.apache.hadoop.mapreduce.ID
 
id - 类 中的变量org.apache.hadoop.mapreduce.ID
 
ident - 类 中的变量org.apache.hadoop.mapred.join.Parser.Node
 
IDENT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
IdentifierResolver - org.apache.hadoop.streaming.io中的类
This class is used to resolve a string identifier into the required IO classes.
IdentifierResolver() - 类 的构造器org.apache.hadoop.streaming.io.IdentifierResolver
 
IdentityLocalAnalysis - org.apache.hadoop.contrib.index.example中的类
Identity local analysis maps inputs directly into outputs.
IdentityLocalAnalysis() - 类 的构造器org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
 
IdentityMapper<K,V> - org.apache.hadoop.mapred.lib中的类
Implements the identity function, mapping inputs directly to outputs.
IdentityMapper() - 类 的构造器org.apache.hadoop.mapred.lib.IdentityMapper
 
IdentityReducer<K,V> - org.apache.hadoop.mapred.lib中的类
Performs no reduction, writing all input values directly to the output.
IdentityReducer() - 类 的构造器org.apache.hadoop.mapred.lib.IdentityReducer
 
idFormat - 类 中的静态变量org.apache.hadoop.mapreduce.JobID
 
idFormat - 类 中的静态变量org.apache.hadoop.mapreduce.TaskID
 
IDistributionPolicy - org.apache.hadoop.contrib.index.mapred中的接口
A distribution policy decides, given a document with a document id, which one shard the request should be sent to if the request is an insert, and which shard(s) the request should be sent to if the request is a delete.
idWithinJob() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
 
idx - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
idx - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
ifExists(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
We search through all the configured dirs for the file's existence and return true when we find
ifmt(double) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
IIndexUpdater - org.apache.hadoop.contrib.index.mapred中的接口
A class implements an index updater interface should create a Map/Reduce job configuration and run the Map/Reduce job to analyze documents and update Lucene instances in parallel.
ILLEGAL_ARGS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
 
ILocalAnalysis<K extends WritableComparable,V extends Writable> - org.apache.hadoop.contrib.index.mapred中的接口
Application specific local analysis.
image - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
The string image of the token.
implies(FsAction) - 枚举 中的方法org.apache.hadoop.fs.permission.FsAction
Return true if this action implies that action.
in - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
 
in - 类 中的变量org.apache.hadoop.io.compress.CompressionInputStream
The input stream to be compressed.
inBuf - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
inc(int) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
已过时。
Inc metrics for incr vlaue
inc() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
已过时。
Inc metrics by one
inc(long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
已过时。
Inc metrics for incr vlaue
inc() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
已过时。
Inc metrics by one
inc(int, long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
Increment the metrics for numOps operations
inc(long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
Increment the metrics for one operation
incDfsUsed(long) - 类 中的方法org.apache.hadoop.fs.DU
Increase how much disk space we use.
incLevel() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.DepthCounter
 
Include() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
INCLUDE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
InconsistentFSStateException - org.apache.hadoop.hdfs.server.common中的异常错误
The exception is thrown when file system state is inconsistent and is not recoverable.
InconsistentFSStateException(File, String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.InconsistentFSStateException
 
InconsistentFSStateException(File, String, Throwable) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.InconsistentFSStateException
 
incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
 
incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
incorporate event counters
IncorrectVersionException - org.apache.hadoop.hdfs.server.common中的异常错误
The exception is thrown when external version does not match current version of the appication.
IncorrectVersionException(int, String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.IncorrectVersionException
 
IncorrectVersionException(int, String, int) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.IncorrectVersionException
 
incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounter
Increment the metric value by 1.
incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
 
incr(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
Increment the value by a delta
incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
 
incr(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
Increment the value by a delta
incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGauge
Increment the value of the metric by 1
incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
 
incr(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
Increment by delta
incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
 
incr(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
Increment by delta
incr(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Increment a metric by name.
incr(String, MetricMutableFactory) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Increment a metric by name.
incr() - 接口 中的方法org.apache.hadoop.record.Index
 
incrAllCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.Counters
Increments multiple counters by their amounts in another Counters instance.
incrAllCounters(CounterGroup) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
 
incrAllCounters(Counters) - 类 中的方法org.apache.hadoop.mapreduce.Counters
Increments multiple counters by their amounts in another Counters instance.
incrAuthenticationFailures() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
One authentication failure event
incrAuthenticationSuccesses() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
One authentication success event
incrAuthorizationFailures() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
One authorization failure event
incrAuthorizationSuccesses() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
One authorization success event
incrBlocksGetLocalPathInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBlocksRead() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBlocksRemoved(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBlocksReplicated(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBlocksVerified() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBlocksWritten() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBlockVerificationFailures() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBytesRead(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrBytesWritten(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrCounter(Enum, long) - 类 中的方法org.apache.hadoop.mapred.Counters
Increments the specified counter by the specified amount, creating it if it didn't already exist.
incrCounter(String, String, long) - 类 中的方法org.apache.hadoop.mapred.Counters
Increments the specified counter by the specified amount, creating it if it didn't already exist.
incrCounter(Enum<?>, long) - 接口 中的方法org.apache.hadoop.mapred.Reporter
Increments the counter identified by the key, which can be of any Enum type, by the specified amount.
incrCounter(String, String, long) - 接口 中的方法org.apache.hadoop.mapred.Reporter
Increments the counter identified by the group and counter name by the specified amount.
incrCounter(Enum, long) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
incrCounter(String, String, long) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
increment(long) - 类 中的方法org.apache.hadoop.mapreduce.Counter
Increment this counter by the given value
INCREMENT - 类 中的静态变量org.apache.hadoop.metrics.spi.MetricValue
已过时。
 
incrementBytesRead(long) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Increment the bytes read in the statistics
incrementBytesWritten(long) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Increment the bytes written in the statistics
incrementLargeReadOps(int) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Increment the number of large read operations
incrementReadOps(int) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Increment the number of read operations
incrementWeight(double) - 类 中的方法org.apache.hadoop.util.bloom.Key
Increments the weight of this key with a specified value.
incrementWeight() - 类 中的方法org.apache.hadoop.util.bloom.Key
Increments the weight of this key by one.
incrementWriteOps(int) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Increment the number of write operations
incrFilesDeleted(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrMetric(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Increments the named metric by the specified value.
incrMetric(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Increments the named metric by the specified value.
incrMetric(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Increments the named metric by the specified value.
incrMetric(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Increments the named metric by the specified value.
incrMetric(String, float) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Increments the named metric by the specified value.
incrMetric(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Increments the named metric by the specified value.
incrMetric(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Increments the named metric by the specified value.
incrMetric(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Increments the named metric by the specified value.
incrMetric(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Increments the named metric by the specified value.
incrMetric(String, float) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Increments the named metric by the specified value.
incrNumAddBlockOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumCreateFileOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumDeleteFileOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumFileInfoOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumFilesAppended() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumFilesCreated() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumFilesInGetListingOps(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumFilesRenamed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumGetBlockLocations() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrNumGetListingOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrReadsFromLocalClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrReadsFromRemoteClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrReceivedBytes(int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Increment received bytes by count
incrSentBytes(int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Increment sent bytes by count
incrTransactionsBatchedInSync() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
incrWritesFromLocalClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
incrWritesFromRemoteClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
Index - org.apache.hadoop.record中的接口
Interface that acts as an iterator for deserializing maps.
INDEX_FILE_NAME - 类 中的静态变量org.apache.hadoop.io.MapFile
The name of the index file.
IndexedSortable - org.apache.hadoop.util中的接口
Interface for collections capable of being sorted by IndexedSorter algorithms.
IndexedSorter - org.apache.hadoop.util中的接口
Interface for sort algorithms accepting IndexedSortable items.
IndexUpdateCombiner - org.apache.hadoop.contrib.index.mapred中的类
This combiner combines multiple intermediate forms into one intermediate form.
IndexUpdateCombiner() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
 
IndexUpdateConfiguration - org.apache.hadoop.contrib.index.mapred中的类
This class provides the getters and the setters to a number of parameters.
IndexUpdateConfiguration(Configuration) - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Constructor
IndexUpdateMapper<K extends WritableComparable,V extends Writable> - org.apache.hadoop.contrib.index.mapred中的类
This class applies local analysis on a key-value pair and then convert the result docid-operation pair to a shard-and-intermediate form pair.
IndexUpdateMapper() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
 
IndexUpdateOutputFormat - org.apache.hadoop.contrib.index.mapred中的类
The record writer of this output format simply puts a message in an output path when a shard update is done.
IndexUpdateOutputFormat() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateOutputFormat
 
IndexUpdatePartitioner - org.apache.hadoop.contrib.index.mapred中的类
This partitioner class puts the values of the same key - in this case the same shard - in the same partition.
IndexUpdatePartitioner() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdatePartitioner
 
IndexUpdater - org.apache.hadoop.contrib.index.mapred中的类
An implementation of an index updater interface which creates a Map/Reduce job configuration and run the Map/Reduce job to analyze documents and update Lucene instances in parallel.
IndexUpdater() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdater
 
IndexUpdateReducer - org.apache.hadoop.contrib.index.mapred中的类
This reducer applies to a shard the changes for it.
IndexUpdateReducer() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
 
infoPort - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
 
init(Shard[]) - 类 中的方法org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
 
init(Shard[]) - 类 中的方法org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
 
init(Shard[]) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IDistributionPolicy
Initialization.
init() - 类 中的方法org.apache.hadoop.fs.FsShell
 
init(DaemonContext) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
 
init(FilterConfig) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter
 
init(FilterConfig) - 类 中的方法org.apache.hadoop.http.lib.StaticUserWebFilter.StaticUserFilter
 
init() - 类 中的方法org.apache.hadoop.jmx.JMXJsonServlet
Initialize this servlet.
init(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
Connect to the default JobTracker.
init(JobTracker, JobConf, String, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
Initialize JobHistory files.
init(ServletConfig) - 类 中的方法org.apache.hadoop.mapred.RawHistoryFileServlet
 
init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.file.FileContext
已过时。
 
init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext31
 
init(String, String) - 类 中的静态方法org.apache.hadoop.metrics.jvm.JvmMetrics
已过时。
 
init(String, String, String) - 类 中的静态方法org.apache.hadoop.metrics.jvm.JvmMetrics
已过时。
 
init(String, ContextFactory) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Initialize this context.
init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Initializes the context.
init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.NoEmitMetricsContext
已过时。
 
init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
已过时。
 
init(String) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
Initialized the metrics system with a prefix.
init(SubsetConfiguration) - 类 中的方法org.apache.hadoop.metrics2.MetricsFilter
 
init(SubsetConfiguration) - 接口 中的方法org.apache.hadoop.metrics2.MetricsPlugin
Initialize the plugin
init(SubsetConfiguration) - 类 中的方法org.apache.hadoop.metrics2.sink.FileSink
 
init(SubsetConfiguration) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
init(FilterConfig) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Initializes the authentication filter.
init(Properties) - 接口 中的方法org.apache.hadoop.security.authentication.server.AuthenticationHandler
Initializes the authentication handler instance.
init(Properties) - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Initializes the authentication handler instance.
init(Properties) - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
Initializes the authentication handler instance.
init(FilterConfig) - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.Krb5SslFilter
 
init(Configuration) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
 
init() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
init() - 类 中的方法org.apache.hadoop.streaming.StreamXmlRecordReader
 
init(Path, Configuration) - 类 中的方法org.apache.hadoop.tools.rumen.DefaultOutputter
 
init(Path, Configuration) - 接口 中的方法org.apache.hadoop.tools.rumen.Outputter
Initialize the Outputter to a specific path.
initDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
initDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
inited() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Check if the job has been initialized.
initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.http.FilterInitializer
Initialize a Filter to a FilterContainer.
initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.http.lib.StaticUserWebFilter
 
initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.security.AuthenticationFilterInitializer
Initializes Alfredo AuthenticationFilter.
initHTML(ServletResponse, String) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
Initial HTML header
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.FileSystem
Called after a new FileSystem instance is constructed.
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Called after a new FileSystem instance is constructed.
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
Initialize a Har filesystem per har archive.
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
initialize(URI, Configuration) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
initialize(URI) - 类 中的方法org.apache.hadoop.fs.s3.MigrationTool
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
 
initialize(Configuration, FSClusterStats, NetworkTopology) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
Used to setup a BlockPlacementPolicy object.
initialize(Configuration, FSClusterStats, NetworkTopology) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
Used to setup a BlockPlacementPolicy object.
initialize(Configuration, FSClusterStats, NetworkTopology) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
 
initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
initialize(JobConf, JobID, Reporter, boolean) - 类 中的方法org.apache.hadoop.mapred.Task
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
Called once at initialization.
initialize(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
Common static convenience method to initialize the metrics system
initialize(Subject, CallbackHandler, Map<String, ?>, Map<String, ?>) - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
 
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.InputWriter
Initializes the InputWriter.
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
Initializes the OutputReader.
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesInputWriter
 
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
 
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TextInputWriter
 
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
 
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesInputWriter
 
initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
 
initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
Implementation for RecordReader::initialize().
initialize(int) - 类 中的方法org.apache.hadoop.util.PriorityQueue
Subclass constructors must call this.
initializeAttemptDirs(String, String, String) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.Localizer
Create taskDirs on all the disks.
initializeJob(String, String, Path, Path, TaskUmbilicalProtocol, InetSocketAddress) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
This routine initializes the local file system for running a job.
initializeJob(String, String, Path, Path, TaskUmbilicalProtocol, InetSocketAddress) - 类 中的方法org.apache.hadoop.mapred.TaskController
Create all of the directories necessary for the job to start and download all of the job and private distributed cache files.
initializeJobLogDir() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
Create job log directory and set appropriate permissions for the directory.
initializePieces() - 类 中的方法org.apache.hadoop.examples.dancing.OneSidedPentomino
Define the one sided pieces.
initializePieces() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
Fill in the pieces list.
initializeTables(LoggedDiscreteCDF) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
 
initializeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
initializeUserDirs(String) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.Localizer
Initialize the local directories for a particular user on this TT.
initJob(JobInProgress) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
initNextRecordReader() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
Get the record reader for the next chunk in this CombineFileSplit.
initNextRecordReader() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
Get the record reader for the next chunk in this CombineFileSplit.
initTasks() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Construct the splits, etc.
injectToken(HttpURLConnection, AuthenticatedURL.Token) - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
Helper method that injects an authentication token to send with a connection.
InMemoryFileSystem - org.apache.hadoop.fs中的类
已过时。
InMemoryFileSystem() - 类 的构造器org.apache.hadoop.fs.InMemoryFileSystem
已过时。
 
InMemoryFileSystem(URI, Configuration) - 类 的构造器org.apache.hadoop.fs.InMemoryFileSystem
已过时。
 
InnerJoinRecordReader<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
Full inner join.
INode - org.apache.hadoop.fs.s3中的类
Holds file metadata including type (regular file, or directory), and the list of blocks that are pointers to the data.
INode(INode.FileType, Block[]) - 类 的构造器org.apache.hadoop.fs.s3.INode
 
inodeExists(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
Input() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
INPUT_BOUNDING_QUERY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Input query to get the max and min values of the jdbc.input.query
INPUT_CLASS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Class name implementing DBWritable which will hold input tuples
INPUT_CLASS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Class name implementing DBWritable which will hold input tuples
INPUT_CONDITIONS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
WHERE clause in the input SELECT statement
INPUT_CONDITIONS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
WHERE clause in the input SELECT statement
INPUT_COUNT_QUERY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Input query to get the count of records
INPUT_COUNT_QUERY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Input query to get the count of records
INPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Field names in the Input table
INPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Field names in the Input table
INPUT_FORMAT_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
INPUT_ORDER_BY_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
ORDER BY clause in the input SELECT statement
INPUT_ORDER_BY_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
ORDER BY clause in the input SELECT statement
INPUT_QUERY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Whole input query, exluding LIMIT...OFFSET
INPUT_QUERY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Whole input query, exluding LIMIT...OFFSET
input_stream - 类 中的变量org.apache.hadoop.record.compiler.generated.RccTokenManager
 
INPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Input table name
INPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Input table name
InputBuffer - org.apache.hadoop.io中的类
A reusable InputStream implementation that reads from an in-memory buffer.
InputBuffer() - 类 的构造器org.apache.hadoop.io.InputBuffer
Constructs a new empty buffer.
inputCounter - 类 中的变量org.apache.hadoop.mapred.Task.CombinerRunner
 
InputDemuxer - org.apache.hadoop.tools.rumen中的接口
InputDemuxer dem-ultiplexes the input files into individual input streams.
inputFile - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
inputFile - 类 中的变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
InputFormat<K,V> - org.apache.hadoop.mapred中的接口
InputFormat describes the input-specification for a Map-Reduce job.
InputFormat<K,V> - org.apache.hadoop.mapreduce中的类
InputFormat describes the input-specification for a Map-Reduce job.
InputFormat() - 类 的构造器org.apache.hadoop.mapreduce.InputFormat
 
inputFormatSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
InputSampler<K,V> - org.apache.hadoop.mapred.lib中的类
Utility for collecting samples and writing a partition file for TotalOrderPartitioner.
InputSampler(JobConf) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler
 
InputSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
Utility for collecting samples and writing a partition file for TotalOrderPartitioner.
InputSampler(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler
 
InputSampler.IntervalSampler<K,V> - org.apache.hadoop.mapred.lib中的类
Sample from s splits at regular intervals.
InputSampler.IntervalSampler(double) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.IntervalSampler
Create a new IntervalSampler sampling all splits.
InputSampler.IntervalSampler(double, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.IntervalSampler
Create a new IntervalSampler.
InputSampler.IntervalSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
Sample from s splits at regular intervals.
InputSampler.IntervalSampler(double) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.IntervalSampler
Create a new IntervalSampler sampling all splits.
InputSampler.IntervalSampler(double, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.IntervalSampler
Create a new IntervalSampler.
InputSampler.RandomSampler<K,V> - org.apache.hadoop.mapred.lib中的类
Sample from random points in the input.
InputSampler.RandomSampler(double, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.RandomSampler
Create a new RandomSampler sampling all splits.
InputSampler.RandomSampler(double, int, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.RandomSampler
Create a new RandomSampler.
InputSampler.RandomSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
Sample from random points in the input.
InputSampler.RandomSampler(double, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.RandomSampler
Create a new RandomSampler sampling all splits.
InputSampler.RandomSampler(double, int, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.RandomSampler
Create a new RandomSampler.
InputSampler.Sampler<K,V> - org.apache.hadoop.mapred.lib中的接口
Interface to sample using an InputFormat.
InputSampler.Sampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的接口
Interface to sample using an InputFormat.
InputSampler.SplitSampler<K,V> - org.apache.hadoop.mapred.lib中的类
Samples the first n records from s splits.
InputSampler.SplitSampler(int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.SplitSampler
Create a SplitSampler sampling all splits.
InputSampler.SplitSampler(int, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.SplitSampler
Create a new SplitSampler.
InputSampler.SplitSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
Samples the first n records from s splits.
InputSampler.SplitSampler(int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.SplitSampler
Create a SplitSampler sampling all splits.
InputSampler.SplitSampler(int, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.SplitSampler
Create a new SplitSampler.
inputSpecs_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
InputSplit - org.apache.hadoop.mapred中的接口
InputSplit represents the data to be processed by an individual Mapper.
InputSplit - org.apache.hadoop.mapreduce中的类
InputSplit represents the data to be processed by an individual Mapper.
InputSplit() - 类 的构造器org.apache.hadoop.mapreduce.InputSplit
 
inputStream - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
inputTag - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
InputWriter<K,V> - org.apache.hadoop.streaming.io中的类
Abstract base for classes that write the client's input.
InputWriter() - 类 的构造器org.apache.hadoop.streaming.io.InputWriter
 
inReaderSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
INSERT - 类 中的静态变量org.apache.hadoop.contrib.index.mapred.DocumentAndOp.Op
 
insert(T) - 类 中的方法org.apache.hadoop.util.PriorityQueue
Adds element to the PriorityQueue in log(size) time if either the PriorityQueue is not full, or not lessThan(element, top()).
insertRange(int, List<LocatedBlock>) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
 
instantiateDataNode(String[], Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Instantiate a single datanode object.
instantiateDataNode(String[], Configuration, SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Instantiate a single datanode object.
INT - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
INT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
IntegerSplitter - org.apache.hadoop.mapreduce.lib.db中的类
Implement DBSplitter over integer values.
IntegerSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.IntegerSplitter
 
InterDatanodeProtocol - org.apache.hadoop.hdfs.server.protocol中的接口
An inter-datanode protocol for updating generation stamp
InterfaceAudience - org.apache.hadoop.classification中的类
Annotation to inform users of a package, class or method's intended audience.
InterfaceAudience.LimitedPrivate - org.apache.hadoop.classification中的注释类型
Intended only for the project(s) specified in the annotation.
InterfaceAudience.Private - org.apache.hadoop.classification中的注释类型
Intended for use only within Hadoop itself.
InterfaceAudience.Public - org.apache.hadoop.classification中的注释类型
Intended for use by any project or application.
InterfaceStability - org.apache.hadoop.classification中的类
Annotation to inform users of how much to rely on a particular package, class or method not changing over time.
InterfaceStability() - 类 的构造器org.apache.hadoop.classification.InterfaceStability
 
InterfaceStability.Evolving - org.apache.hadoop.classification中的注释类型
Evolving, but can break compatibility at minor release (i.e. m.x)
InterfaceStability.Stable - org.apache.hadoop.classification中的注释类型
Can evolve while retaining compatibility for minor release boundaries.; can break compatibility only at major release (ie. at m.0).
InterfaceStability.Unstable - org.apache.hadoop.classification中的注释类型
No guarantee is provided as to reliability or stability across any level of release granularity.
IntermediateForm - org.apache.hadoop.contrib.index.mapred中的类
An intermediate form for one or more parsed Lucene documents and/or delete terms.
IntermediateForm() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IntermediateForm
Constructor
IntSumReducer<Key> - org.apache.hadoop.mapreduce.lib.reduce中的类
 
IntSumReducer() - 类 的构造器org.apache.hadoop.mapreduce.lib.reduce.IntSumReducer
 
IntTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
 
IntWritable - org.apache.hadoop.io中的类
A WritableComparable for ints.
IntWritable() - 类 的构造器org.apache.hadoop.io.IntWritable
 
IntWritable(int) - 类 的构造器org.apache.hadoop.io.IntWritable
 
IntWritable.Comparator - org.apache.hadoop.io中的类
A Comparator optimized for IntWritable.
IntWritable.Comparator() - 类 的构造器org.apache.hadoop.io.IntWritable.Comparator
 
INVALID_ARGUMENT - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
INVALID_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
INVALID_HASH - 类 中的静态变量org.apache.hadoop.util.hash.Hash
Constant to denote invalid hash type.
invalidate(Block[]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
We're informed that a block is no longer valid.
invalidate(Block[]) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Invalidates the specified blocks
InvalidBlockTokenException - org.apache.hadoop.hdfs.security.token.block中的异常错误
Access token verification failed.
InvalidBlockTokenException() - 异常错误 的构造器org.apache.hadoop.hdfs.security.token.block.InvalidBlockTokenException
 
InvalidBlockTokenException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.security.token.block.InvalidBlockTokenException
 
InvalidFileTypeException - org.apache.hadoop.mapred中的异常错误
Used when file type differs from the desired file type. like getting a file when a directory is expected.
InvalidFileTypeException() - 异常错误 的构造器org.apache.hadoop.mapred.InvalidFileTypeException
 
InvalidFileTypeException(String) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidFileTypeException
 
InvalidInputException - org.apache.hadoop.mapred中的异常错误
This class wraps a list of problems with the input, so that the user can get a list of problems together instead of finding and fixing them one by one.
InvalidInputException(List<IOException>) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidInputException
Create the exception with the given list.
InvalidInputException - org.apache.hadoop.mapreduce.lib.input中的异常错误
This class wraps a list of problems with the input, so that the user can get a list of problems together instead of finding and fixing them one by one.
InvalidInputException(List<IOException>) - 异常错误 的构造器org.apache.hadoop.mapreduce.lib.input.InvalidInputException
Create the exception with the given list.
InvalidJobConfException - org.apache.hadoop.mapred中的异常错误
This exception is thrown when jobconf misses some mendatory attributes or value of some attributes is invalid.
InvalidJobConfException() - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
 
InvalidJobConfException(String) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
 
InvalidJobConfException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
 
InvalidJobConfException(Throwable) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
 
InverseMapper<K,V> - org.apache.hadoop.mapred.lib中的类
A Mapper that swaps keys and values.
InverseMapper() - 类 的构造器org.apache.hadoop.mapred.lib.InverseMapper
 
InverseMapper<K,V> - org.apache.hadoop.mapreduce.lib.map中的类
A Mapper that swaps keys and values.
InverseMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.map.InverseMapper
 
invoke(String, Object[], String[]) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
已过时。
 
IO_COMPRESSION_CODEC_SNAPPY_BUFFERSIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
Default value for IO_COMPRESSION_CODEC_SNAPPY_BUFFERSIZE_KEY
IO_COMPRESSION_CODEC_SNAPPY_BUFFERSIZE_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
Internal buffer size for Snappy compressor/decompressors
IO_EXCEPTION - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
 
IO_NATIVE_LIB_AVAILABLE_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
Default value for IO_NATIVE_LIB_AVAILABLE_KEY
IO_NATIVE_LIB_AVAILABLE_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
ioSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
IOUtils - org.apache.hadoop.io中的类
An utility class for I/O related functionality.
IOUtils() - 类 的构造器org.apache.hadoop.io.IOUtils
 
IOUtils.NullOutputStream - org.apache.hadoop.io中的类
/dev/null of OutputStreams.
IOUtils.NullOutputStream() - 类 的构造器org.apache.hadoop.io.IOUtils.NullOutputStream
 
IPC_CLIENT_CONNECT_MAX_RETRIES_DEFAULT - 类 中的静态变量org.apache.hadoop.ipc.Client
 
IPC_CLIENT_CONNECT_MAX_RETRIES_KEY - 类 中的静态变量org.apache.hadoop.ipc.Client
 
IPC_CLIENT_FALLBACK_TO_SIMPLE_AUTH_ALLOWED_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
IPC_CLIENT_FALLBACK_TO_SIMPLE_AUTH_ALLOWED_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
IPC_SERVER_RPC_READ_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
IPC_SERVER_RPC_READ_THREADS_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
 
ipcPort - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
 
ipcServer - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
is203LayoutVersion(int) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
 
isAbsolute() - 类 中的方法org.apache.hadoop.fs.Path
True if the directory of this path is absolute.
isAbsolute() - 类 中的方法org.apache.hadoop.metrics.spi.MetricValue
已过时。
 
isAlive - 类 中的变量org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
 
isAlive(String) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
Is the process with PID pid still alive?
isAlive() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Is the root-process alive?
isAllAllowed() - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
 
isAnyProcessInTreeAlive() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Is any of the subprocesses in the process-tree alive?
isAsyncBlockReportReady() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
isAsyncBlockReportReady() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
 
isAvailable() - 类 中的静态方法org.apache.hadoop.io.compress.snappy.LoadSnappy
Returns if Snappy native library is loaded.
isAvailable() - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
Return true if the JNI-based native IO extensions are available.
isAvailable() - 类 中的静态方法org.apache.hadoop.util.ProcfsBasedProcessTree
Checks if the ProcfsBasedProcessTree is available on this system.
isBlacklisted(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Whether the tracker is blacklisted or not
isBlockCompressed() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns true if records are block-compressed.
isBlockFilename(File) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.Block
 
isBlockIncluded(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
Is specified blockId included in this BlockTokenIdentifier?
isBlockTokenEnabled() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
isCached(String) - 类 中的方法org.apache.hadoop.security.NetgroupCache
 
isChecksumFile(Path) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
Return true iff file is a checksum file name.
isComplete() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Check if the job is finished or not.
isComplete() - 类 中的方法org.apache.hadoop.mapreduce.Job
Check if the job is finished or not.
isCompleted() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
isCompleted() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
isCompressed() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns true if values are compressed.
isContextValid(String) - 类 中的静态方法org.apache.hadoop.fs.LocalDirAllocator
Method to check whether a context is valid
isConversionNeeded(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
 
isConversionNeeded(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
 
isConversionNeeded(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
isCorrupt() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
isCygwin() - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
isDecommissioned() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Returns true if the node has been decommissioned.
isDecommissionInProgress() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Returns true if the node is in the process of being decommissioned
isDir() - 类 中的方法org.apache.hadoop.fs.FileStatus
Is this a directory?
isDir() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Is this a directory?
isDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
已过时。
Use getFileStatus() instead
isDirectory(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
isDirectory() - 类 中的方法org.apache.hadoop.fs.s3.INode
 
isDirectory(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
已过时。
Use getHdfsFileStatus() instead
isEmpty() - 类 中的方法org.apache.hadoop.io.MapWritable
isEmpty() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
isEmptyLocalName() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
Check if the local name is empty
isEnabled(Configuration, Log) - 类 中的静态方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
Is WebHDFS enabled in conf?
isExpired() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Returns if the token has expired.
isFile(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
True iff the named path is a regular file.
isFile(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
isFile() - 类 中的方法org.apache.hadoop.fs.s3.INode
 
isFile(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
isFileClosed(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Close status of a file
isFileClosed(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Get the close status of a file
isFileClosed(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Get the close status of a file
isFileClosed(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Get the close status of a file
isFinalized() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
Is current upgrade finalized.
isFromKeytab() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Is this user logged in from a keytab file?
isGoodTarget(DatanodeDescriptor, long, int, boolean, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
Determine if a node is a good target.
isGraylisted(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Whether the tracker is graylisted or not
isHealthy(URI) - 类 中的静态方法org.apache.hadoop.hdfs.DistributedFileSystem
Is the HDFS healthy?
isHealthy() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
isHealthy() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
 
isIdle() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Is this task tracker idle?
isIdleAndClean() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Is this task tracker idle and clean?
isIncluded(int) - 类 中的方法org.apache.hadoop.conf.Configuration.IntegerRanges
Is the given value in the set of ranges
isIncrement() - 类 中的方法org.apache.hadoop.metrics.spi.MetricValue
已过时。
 
isInSafeMode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Is the cluster currently in safe mode?
isInSafeMode() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
isInstrumentationAccessAllowed(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.http.HttpServer
Checks the user has privileges to access to instrumentation servlets.
isJobComplete() - 类 中的方法org.apache.hadoop.mapred.JobStatus
Returns true if the status is for a completed job.
isJobDirValid(Path, FileSystem) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
Checks if the job directory is clean and has all the required components for (re) starting the job
isLoaded() - 类 中的静态方法org.apache.hadoop.io.compress.snappy.LoadSnappy
Returns if Snappy native library is loaded.
isLocalHadoop() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
isLocalJobTracker(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
isLockSupported(int) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
Check whether underlying file system supports file locking.
isLoginKeytabBased() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Did the login happen via keytab
isManaged(Token<?>) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
 
isManaged(Token<?>) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
 
isManaged(Token<?>) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
 
isManaged(Token<?>) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
 
isManaged() - 类 中的方法org.apache.hadoop.security.token.Token
Is this token managed so that it can be renewed or cancelled?
isManaged(Token<?>) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
 
isManaged(Token<?>) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
Is the given token managed?
isMap() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
Returns whether this TaskAttemptID is a map ID
isMap() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
Returns whether this TaskID is a map ID
isMapTask() - 类 中的方法org.apache.hadoop.mapred.Task
 
isMapTask() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
 
isMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Returns true if monitoring is currently in progress.
isMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Returns true if monitoring is currently in progress.
isMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
Return true if all subcontexts are monitoring.
isMultiNamedOutput(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Returns if a named output is multiple.
isNativeCodeLoaded() - 类 中的静态方法org.apache.hadoop.util.NativeCodeLoader
Check if native-hadoop code is loaded for this platform.
isNativeSnappyLoaded(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.SnappyCodec
Are the native snappy libraries loaded & initialized?
isNativeZlibLoaded(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
Check if native-zlib code is loaded & initialized correctly and can be loaded for this job.
isNegativeVInt(byte) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Given the first byte of a vint/vlong, determine the sign
isNodeGroupAware() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
isNodeGroupAware() - 类 中的方法org.apache.hadoop.net.NetworkTopology
Check if network topology is aware of NodeGroup
isNodeGroupAware() - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
Check if network topology is aware of NodeGroup
isOfType(Storage.StorageDirType) - 接口 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirType
 
IsolationRunner - org.apache.hadoop.mapred中的类
IsolationRunner is intended to facilitate debugging by re-running a specific task, given left-over task files for a (typically failed) past job.
IsolationRunner() - 类 的构造器org.apache.hadoop.mapred.IsolationRunner
 
isOnSameNodeGroup(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Return false directly as not aware of NodeGroup, to be override in sub-class
isOnSameNodeGroup(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
Check if two nodes are on the same node group (hypervisor) The assumption here is: each nodes are leaf nodes.
isOnSameRack(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Check if two nodes are on the same rack
isOnSameRack(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
 
isOpen() - 类 中的方法org.apache.hadoop.net.SocketInputStream
 
isOpen() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
 
isOriginalTGT(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
 
isProcessGroupAlive(String) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
Is the process group with still alive?
isQueueEmpty() - 类 中的方法org.apache.hadoop.mapred.CleanupQueue
 
isRandomSecret() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
Returns if a random secret is being used.
isReady() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
isReady() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
isReservedForOldRelease() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
 
isRunning() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
is secretMgr running
isSameParents(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Compare the parents of each node for equality To be overridden in subclasses for specific NetworkTopology implementations, as alternative to overriding the full NetworkTopology.isOnSameRack(Node, Node) method.
isSecurityEnabled() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Determine if UserGroupInformation is using Kerberos to determine user identities or is relying on simple authentication
isSegmentsFile(String) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
Check if the file is a segments_N file
isSegmentsGenFile(String) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
Check if the file is the segments.gen file
isSet() - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
Returns if a token from the server has been set.
isSetsidAvailable - 类 中的静态变量org.apache.hadoop.util.ProcessTree
 
isSkipping() - 类 中的方法org.apache.hadoop.mapred.Task
Is Task in skipping mode.
isSorted() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
Is the TFile sorted?
isSplitable(FileSystem, Path) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
Is the given filename splitable?
isSplitable(FileSystem, Path) - 类 中的方法org.apache.hadoop.mapred.KeyValueTextInputFormat
 
isSplitable(FileSystem, Path) - 类 中的方法org.apache.hadoop.mapred.TextInputFormat
 
isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
 
isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Is the given filename splitable?
isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat
 
isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.TextInputFormat
 
isStale(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Check if the datanode is in stale state.
isSuccess() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
Check if this ack contains error status
isSuccessful() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Check if the job completed successfully.
isSuccessful() - 类 中的方法org.apache.hadoop.mapreduce.Job
Check if the job completed successfully.
isSupportSparseMetrics() - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
isTaskMemoryManagerEnabled() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Is the TaskMemoryManager Enabled on this system?
isTimedOut() - 类 中的方法org.apache.hadoop.util.Shell
To check if the passed script to shell command executor timed out or not.
isUnderConstruction() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
Return ture if file was under construction when this LocatedBlocks was constructed, false otherwise.
isUpgradeCompleted() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
isUpgradeFinalized() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
isUpgradeFinalized() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
Checks if upgrade is finalized.
isUserAllowed(UserGroupInformation) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
 
isValidBlock(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Check whether the given block is a valid one.
isValidBlock(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Is the block valid?
isValidName(String) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
Whether the pathname is valid.
isValidSubnet(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
 
isValueLengthKnown() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Check whether it is safe to call getValueLength().
isWriteable(Class<?>, Type, Annotation[], MediaType) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
 
iterator() - 类 中的方法org.apache.hadoop.conf.Configuration
Get an Iterator to go through the list of String key-value pairs in the configuration.
iterator() - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
 
iterator() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
iterator() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
 
iterator() - 类 中的方法org.apache.hadoop.mapred.Counters
 
iterator() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
Return an iterator over the elements in this tuple.
iterator() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
 
iterator() - 类 中的方法org.apache.hadoop.mapreduce.Counters
 
iterator() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterable
 
iterator() - 类 中的方法org.apache.hadoop.util.CyclicIteration

J

jar_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
JarBuilder - org.apache.hadoop.streaming中的类
This class is the main class for generating job.jar for Hadoop Streaming jobs.
JarBuilder() - 类 的构造器org.apache.hadoop.streaming.JarBuilder
 
JavaSerialization - org.apache.hadoop.io.serializer中的类
An experimental Serialization for Java Serializable classes.
JavaSerialization() - 类 的构造器org.apache.hadoop.io.serializer.JavaSerialization
 
JavaSerializationComparator<T extends Serializable & Comparable<T>> - org.apache.hadoop.io.serializer中的类
A RawComparator that uses a JavaSerialization Deserializer to deserialize objects that are then compared via their Comparable interfaces.
JavaSerializationComparator() - 类 的构造器org.apache.hadoop.io.serializer.JavaSerializationComparator
 
JBoolean - org.apache.hadoop.record.compiler中的类
 
JBoolean() - 类 的构造器org.apache.hadoop.record.compiler.JBoolean
Creates a new instance of JBoolean
JBuffer - org.apache.hadoop.record.compiler中的类
Code generator for "buffer" type.
JBuffer() - 类 的构造器org.apache.hadoop.record.compiler.JBuffer
Creates a new instance of JBuffer
JByte - org.apache.hadoop.record.compiler中的类
Code generator for "byte" type.
JByte() - 类 的构造器org.apache.hadoop.record.compiler.JByte
 
jc - 类 中的变量org.apache.hadoop.mapred.join.CompositeRecordReader
 
jc - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
jc_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
JDouble - org.apache.hadoop.record.compiler中的类
 
JDouble() - 类 的构造器org.apache.hadoop.record.compiler.JDouble
Creates a new instance of JDouble
JENKINS_HASH - 类 中的静态变量org.apache.hadoop.util.hash.Hash
Constant to denote JenkinsHash.
JenkinsHash - org.apache.hadoop.util.hash中的类
Produces 32-bit hash for hash table lookup.
JenkinsHash() - 类 的构造器org.apache.hadoop.util.hash.JenkinsHash
 
JField<T> - org.apache.hadoop.record.compiler中的类
A thin wrappper around record field.
JField(String, T) - 类 的构造器org.apache.hadoop.record.compiler.JField
Creates a new instance of JField
JFile - org.apache.hadoop.record.compiler中的类
Container for the Hadoop Record DDL.
JFile(String, ArrayList<JFile>, ArrayList<JRecord>) - 类 的构造器org.apache.hadoop.record.compiler.JFile
Creates a new instance of JFile
JFloat - org.apache.hadoop.record.compiler中的类
 
JFloat() - 类 的构造器org.apache.hadoop.record.compiler.JFloat
Creates a new instance of JFloat
JhCounter - org.apache.hadoop.tools.rumen中的类
 
JhCounter() - 类 的构造器org.apache.hadoop.tools.rumen.JhCounter
 
JhCounterGroup - org.apache.hadoop.tools.rumen中的类
 
JhCounterGroup() - 类 的构造器org.apache.hadoop.tools.rumen.JhCounterGroup
 
JhCounters - org.apache.hadoop.tools.rumen中的类
 
JIFFY_LENGTH_IN_MILLIS - 类 中的静态变量org.apache.hadoop.util.ProcfsBasedProcessTree
 
JInt - org.apache.hadoop.record.compiler中的类
Code generator for "int" type
JInt() - 类 的构造器org.apache.hadoop.record.compiler.JInt
Creates a new instance of JInt
jj_nt - 类 中的变量org.apache.hadoop.record.compiler.generated.Rcc
 
jjFillToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
 
jjnewLexState - 类 中的静态变量org.apache.hadoop.record.compiler.generated.RccTokenManager
 
jjstrLiteralImages - 类 中的静态变量org.apache.hadoop.record.compiler.generated.RccTokenManager
 
JLong - org.apache.hadoop.record.compiler中的类
Code generator for "long" type
JLong() - 类 的构造器org.apache.hadoop.record.compiler.JLong
Creates a new instance of JLong
JMap - org.apache.hadoop.record.compiler中的类
 
JMap(JType, JType) - 类 的构造器org.apache.hadoop.record.compiler.JMap
Creates a new instance of JMap
JMXJsonServlet - org.apache.hadoop.jmx中的类
Provides Read only web access to JMX.
JMXJsonServlet() - 类 的构造器org.apache.hadoop.jmx.JMXJsonServlet
 
JniBasedUnixGroupsMapping - org.apache.hadoop.security中的类
A JNI-based implementation of GroupMappingServiceProvider that invokes libC calls to get the group memberships of a given user.
JniBasedUnixGroupsMapping() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsMapping
 
JniBasedUnixGroupsMappingWithFallback - org.apache.hadoop.security中的类
 
JniBasedUnixGroupsMappingWithFallback() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
 
JniBasedUnixGroupsNetgroupMapping - org.apache.hadoop.security中的类
A JNI-based implementation of GroupMappingServiceProvider that invokes libC calls to get the group memberships of a given user.
JniBasedUnixGroupsNetgroupMapping() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
 
JniBasedUnixGroupsNetgroupMappingWithFallback - org.apache.hadoop.security中的类
 
JniBasedUnixGroupsNetgroupMappingWithFallback() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
 
job - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
job - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
Job - org.apache.hadoop.mapred.jobcontrol中的类
This class encapsulates a MapReduce job and its dependency.
Job(JobConf, ArrayList<Job>) - 类 的构造器org.apache.hadoop.mapred.jobcontrol.Job
Construct a job.
Job(JobConf) - 类 的构造器org.apache.hadoop.mapred.jobcontrol.Job
Construct a job.
job - 类 中的变量org.apache.hadoop.mapred.Task.CombinerRunner
 
Job - org.apache.hadoop.mapreduce中的类
The job submitter's view of the Job.
Job() - 类 的构造器org.apache.hadoop.mapreduce.Job
 
Job(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.Job
 
Job(Configuration, String) - 类 的构造器org.apache.hadoop.mapreduce.Job
 
JOB - 类 中的静态变量org.apache.hadoop.mapreduce.JobID
 
Job.JobState - org.apache.hadoop.mapreduce中的枚举
 
Job20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
 
JOB_ACL_MODIFY_JOB - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
JOB_ACL_VIEW_JOB - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
JOB_CANCEL_DELEGATION_TOKEN - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
JOB_DIR_PERMISSION - 类 中的静态变量org.apache.hadoop.mapreduce.JobSubmissionFiles
 
JOB_FILE_PERMISSION - 类 中的静态变量org.apache.hadoop.mapreduce.JobSubmissionFiles
 
JOB_LOCAL_CTXT - 类 中的静态变量org.apache.hadoop.mapred.JobLocalizer
 
JOB_NAME_TRIM_LENGTH - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
 
JOB_NAMENODES - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
JOB_TOKEN_HDFS_FILE - 类 中的静态变量org.apache.hadoop.mapreduce.security.TokenCache
file name used on HDFS for generated job token
JOB_TOKENS_FILENAME - 类 中的静态变量org.apache.hadoop.mapreduce.security.TokenCache
conf setting for job tokens cache file name
JobACL - org.apache.hadoop.mapreduce中的枚举
Job related ACLs
jobACLNeeded - 枚举 中的变量org.apache.hadoop.mapred.Operation
 
JobBase - org.apache.hadoop.contrib.utils.join中的类
A common base implementing some statics collecting mechanisms that are commonly used in a typical map/reduce job.
JobBase() - 类 的构造器org.apache.hadoop.contrib.utils.join.JobBase
 
JobBuilder - org.apache.hadoop.tools.rumen中的类
JobBuilder builds one job.
JobBuilder(String) - 类 的构造器org.apache.hadoop.tools.rumen.JobBuilder
 
jobCleanup - 类 中的变量org.apache.hadoop.mapred.Task
 
JobClient - org.apache.hadoop.mapred中的类
JobClient is the primary interface for the user-job to interact with the JobTracker.
JobClient() - 类 的构造器org.apache.hadoop.mapred.JobClient
Create a job client.
JobClient(JobConf) - 类 的构造器org.apache.hadoop.mapred.JobClient
Build a job client with the given JobConf, and connect to the default JobTracker.
JobClient(InetSocketAddress, Configuration) - 类 的构造器org.apache.hadoop.mapred.JobClient
Build a job client, connect to the indicated job tracker.
JobClient.Renewer - org.apache.hadoop.mapred中的类
 
JobClient.Renewer() - 类 的构造器org.apache.hadoop.mapred.JobClient.Renewer
 
JobClient.TaskStatusFilter - org.apache.hadoop.mapred中的枚举
 
JobCompletedEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
This is an UserLogEvent sent when the job completes
JobCompletedEvent(JobID, long, int) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
Create the event for job completion.
JobConf - org.apache.hadoop.mapred中的类
A map/reduce job configuration.
JobConf() - 类 的构造器org.apache.hadoop.mapred.JobConf
Construct a map/reduce job configuration.
JobConf(Class) - 类 的构造器org.apache.hadoop.mapred.JobConf
Construct a map/reduce job configuration.
JobConf(Configuration) - 类 的构造器org.apache.hadoop.mapred.JobConf
Construct a map/reduce job configuration.
JobConf(Configuration, Class) - 类 的构造器org.apache.hadoop.mapred.JobConf
Construct a map/reduce job configuration.
JobConf(String) - 类 的构造器org.apache.hadoop.mapred.JobConf
Construct a map/reduce configuration.
JobConf(Path) - 类 的构造器org.apache.hadoop.mapred.JobConf
Construct a map/reduce configuration.
JobConf(boolean) - 类 的构造器org.apache.hadoop.mapred.JobConf
A new map/reduce configuration where the behavior of reading from the default resources can be turned off.
jobConf_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
JobConfigurable - org.apache.hadoop.mapred中的接口
That what may be configured.
JobConfigurationParser - org.apache.hadoop.tools.rumen中的类
JobConfigurationParser parses the job configuration xml file, and extracts configuration properties.
JobConfigurationParser() - 类 的构造器org.apache.hadoop.tools.rumen.JobConfigurationParser
 
JobConfPropertyNames - org.apache.hadoop.tools.rumen中的枚举
 
JobContext - org.apache.hadoop.mapred中的类
 
jobContext - 类 中的变量org.apache.hadoop.mapred.Task
 
JobContext - org.apache.hadoop.mapreduce中的类
A read-only view of the job that is provided to the tasks while they are running.
JobContext(Configuration, JobID) - 类 的构造器org.apache.hadoop.mapreduce.JobContext
 
JobControl - org.apache.hadoop.mapred.jobcontrol中的类
This class encapsulates a set of MapReduce jobs and its dependency.
JobControl(String) - 类 的构造器org.apache.hadoop.mapred.jobcontrol.JobControl
Construct a job control for a group of jobs.
JobControl - org.apache.hadoop.mapreduce.lib.jobcontrol中的类
This class encapsulates a set of MapReduce jobs and its dependency.
JobControl(String) - 类 的构造器org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
Construct a job control for a group of jobs.
JobControl.ThreadState - org.apache.hadoop.mapreduce.lib.jobcontrol中的枚举
 
JobEndNotifier - org.apache.hadoop.mapred中的类
 
JobEndNotifier() - 类 的构造器org.apache.hadoop.mapred.JobEndNotifier
 
JobFinishedEvent - org.apache.hadoop.tools.rumen中的类
Event to record successful completion of job
JobFinishedEvent(JobID, long, int, int, int, int, Counters, Counters, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.JobFinishedEvent
Create an event to record successful job completion
JobHistory - org.apache.hadoop.mapred中的类
Provides methods for writing to and reading from job history.
JobHistory() - 类 的构造器org.apache.hadoop.mapred.JobHistory
 
JobHistory.HistoryCleaner - org.apache.hadoop.mapred中的类
Delete history files older than one month.
JobHistory.HistoryCleaner() - 类 的构造器org.apache.hadoop.mapred.JobHistory.HistoryCleaner
 
JobHistory.JobInfo - org.apache.hadoop.mapred中的类
Helper class for logging or reading back events related to job start, finish or failure.
JobHistory.JobInfo(String) - 类 的构造器org.apache.hadoop.mapred.JobHistory.JobInfo
Create new JobInfo
JobHistory.Keys - org.apache.hadoop.mapred中的枚举
Job history files contain key="value" pairs, where keys belong to this enum.
JobHistory.Listener - org.apache.hadoop.mapred中的接口
Callback interface for reading back log events from JobHistory.
JobHistory.MapAttempt - org.apache.hadoop.mapred中的类
Helper class for logging or reading back events related to start, finish or failure of a Map Attempt on a node.
JobHistory.MapAttempt() - 类 的构造器org.apache.hadoop.mapred.JobHistory.MapAttempt
 
JobHistory.RecordTypes - org.apache.hadoop.mapred中的枚举
Record types are identifiers for each line of log in history files.
JobHistory.ReduceAttempt - org.apache.hadoop.mapred中的类
Helper class for logging or reading back events related to start, finish or failure of a Map Attempt on a node.
JobHistory.ReduceAttempt() - 类 的构造器org.apache.hadoop.mapred.JobHistory.ReduceAttempt
 
JobHistory.Task - org.apache.hadoop.mapred中的类
Helper class for logging or reading back events related to Task's start, finish or failure.
JobHistory.Task() - 类 的构造器org.apache.hadoop.mapred.JobHistory.Task
 
JobHistory.TaskAttempt - org.apache.hadoop.mapred中的类
Base class for Map and Reduce TaskAttempts.
JobHistory.TaskAttempt() - 类 的构造器org.apache.hadoop.mapred.JobHistory.TaskAttempt
 
JobHistory.Values - org.apache.hadoop.mapred中的枚举
This enum contains some of the values commonly used by history log events.
JOBHISTORY_FILENAME_REGEX - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
 
JobHistoryParser - org.apache.hadoop.tools.rumen中的接口
JobHistoryParser defines the interface of a Job History file parser.
JobHistoryParserFactory - org.apache.hadoop.tools.rumen中的类
JobHistoryParserFactory is a singleton class that attempts to determine the version of job history and return a proper parser.
JobHistoryParserFactory() - 类 的构造器org.apache.hadoop.tools.rumen.JobHistoryParserFactory
 
JobHistoryParserFactory.VersionDetector - org.apache.hadoop.tools.rumen中的枚举
 
JobHistoryServer - org.apache.hadoop.mapred中的类
JobHistoryServer is responsible for servicing all job history related requests from client.
JobHistoryServer(JobConf) - 类 的构造器org.apache.hadoop.mapred.JobHistoryServer
Starts job history server as a independent process * Initializes ACL Manager * Starts a webapp to service history requests
JobHistoryServer(JobConf, ACLsManager, HttpServer) - 类 的构造器org.apache.hadoop.mapred.JobHistoryServer
Starts job history server as a embedded server within job tracker * Starts a webapp to service history requests
JobHistoryUtils - org.apache.hadoop.tools.rumen中的类
 
JobHistoryUtils() - 类 的构造器org.apache.hadoop.tools.rumen.JobHistoryUtils
 
JobID - org.apache.hadoop.mapred中的类
JobID represents the immutable and unique identifier for the job.
JobID(String, int) - 类 的构造器org.apache.hadoop.mapred.JobID
Constructs a JobID object
JobID() - 类 的构造器org.apache.hadoop.mapred.JobID
 
JobID - org.apache.hadoop.mapreduce中的类
JobID represents the immutable and unique identifier for the job.
JobID(String, int) - 类 的构造器org.apache.hadoop.mapreduce.JobID
Constructs a JobID object
JobID() - 类 的构造器org.apache.hadoop.mapreduce.JobID
 
jobId_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
JOBID_REGEX - 类 中的静态变量org.apache.hadoop.mapreduce.JobID
 
jobInfo() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
JobInfoChangeEvent - org.apache.hadoop.tools.rumen中的类
Event to record changes in the submit and launch time of a job
JobInfoChangeEvent(JobID, long, long) - 类 的构造器org.apache.hadoop.tools.rumen.JobInfoChangeEvent
Create a event to record the submit and launch time of a job
JobInitedEvent - org.apache.hadoop.tools.rumen中的类
Event to record the initialization of a job
JobInitedEvent(JobID, long, int, int, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobInitedEvent
Create an event to record job initialization
JobInProgress - org.apache.hadoop.mapred中的类
JobInProgress maintains all the info for keeping a Job on the straight and narrow.
JobInProgress(JobID, JobConf, JobTracker) - 类 的构造器org.apache.hadoop.mapred.JobInProgress
Create an almost empty JobInProgress, which can be used only for tests
JobInProgress.Counter - org.apache.hadoop.mapred中的枚举
 
JobLocalizer - org.apache.hadoop.mapred中的类
Internal class responsible for initializing the job, not intended for users.
JobLocalizer(JobConf, String, String) - 类 的构造器org.apache.hadoop.mapred.JobLocalizer
 
JobLocalizer(JobConf, String, String, String...) - 类 的构造器org.apache.hadoop.mapred.JobLocalizer
 
JobPriority - org.apache.hadoop.mapred中的枚举
Used to describe the priority of the running job.
JobPriorityChangeEvent - org.apache.hadoop.tools.rumen中的类
Event to record the change of priority of a job
JobPriorityChangeEvent(JobID, JobPriority) - 类 的构造器org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
Generate an event to record changes in Job priority
JobProfile - org.apache.hadoop.mapred中的类
A JobProfile is a MapReduce primitive.
JobProfile() - 类 的构造器org.apache.hadoop.mapred.JobProfile
Construct an empty JobProfile.
JobProfile(String, JobID, String, String, String) - 类 的构造器org.apache.hadoop.mapred.JobProfile
Construct a JobProfile the userid, jobid, job config-file, job-details url and job name.
JobProfile(String, JobID, String, String, String, String) - 类 的构造器org.apache.hadoop.mapred.JobProfile
Construct a JobProfile the userid, jobid, job config-file, job-details url and job name.
JobProfile(String, String, String, String, String) - 类 的构造器org.apache.hadoop.mapred.JobProfile
已过时。
use JobProfile(String, JobID, String, String, String) instead
JobQueueInfo - org.apache.hadoop.mapred中的类
Class that contains the information regarding the Job Queues which are maintained by the Hadoop Map/Reduce framework.
JobQueueInfo() - 类 的构造器org.apache.hadoop.mapred.JobQueueInfo
 
JobQueueInfo(String, String) - 类 的构造器org.apache.hadoop.mapred.JobQueueInfo
Construct a new JobQueueInfo object using the queue name and the scheduling information passed.
jobRunStateForCleanup - 类 中的变量org.apache.hadoop.mapred.Task
 
jobSetup - 类 中的变量org.apache.hadoop.mapred.Task
 
JobSplit - org.apache.hadoop.mapreduce.split中的类
This class groups the fundamental classes associated with reading/writing splits.
JobSplit() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit
 
JobSplit.SplitMetaInfo - org.apache.hadoop.mapreduce.split中的类
This represents the meta information about the task split.
JobSplit.SplitMetaInfo() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
JobSplit.SplitMetaInfo(String[], long, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
JobSplit.SplitMetaInfo(InputSplit, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
JobSplit.TaskSplitIndex - org.apache.hadoop.mapreduce.split中的类
This represents the meta information about the task split that the task gets
JobSplit.TaskSplitIndex() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
 
JobSplit.TaskSplitIndex(String, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
 
JobSplit.TaskSplitMetaInfo - org.apache.hadoop.mapreduce.split中的类
This represents the meta information about the task split that the JobTracker creates
JobSplit.TaskSplitMetaInfo() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
JobSplit.TaskSplitMetaInfo(JobSplit.TaskSplitIndex, String[], long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
JobSplit.TaskSplitMetaInfo(InputSplit, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
JobSplit.TaskSplitMetaInfo(String[], long, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
 
JobSplitWriter - org.apache.hadoop.mapreduce.split中的类
The class that is used by the Job clients to write splits (both the meta and the raw bytes parts)
JobSplitWriter() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplitWriter
 
JobStartedEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
This is an UserLogEvent sent when the job starts.
JobStartedEvent(JobID) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobStartedEvent
Create the event to inform the job has started.
JobStatus - org.apache.hadoop.mapred中的类
Describes the current status of a job.
JobStatus() - 类 的构造器org.apache.hadoop.mapred.JobStatus
 
JobStatus(JobID, float, float, float, int) - 类 的构造器org.apache.hadoop.mapred.JobStatus
Create a job status object for a given jobid.
JobStatus(JobID, float, float, int) - 类 的构造器org.apache.hadoop.mapred.JobStatus
Create a job status object for a given jobid.
JobStatus(JobID, float, float, float, int, JobPriority) - 类 的构造器org.apache.hadoop.mapred.JobStatus
Create a job status object for a given jobid.
JobStatus(JobID, float, float, float, float, int, JobPriority) - 类 的构造器org.apache.hadoop.mapred.JobStatus
Create a job status object for a given jobid.
JobStatus - org.apache.hadoop.mapreduce中的类
Describes the current status of a job.
JobStatus() - 类 的构造器org.apache.hadoop.mapreduce.JobStatus
 
JobStatus.State - org.apache.hadoop.mapreduce中的枚举
Current state of the job
JobStatusChangedEvent - org.apache.hadoop.tools.rumen中的类
Event to record the change of status for a job
JobStatusChangedEvent(JobID, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobStatusChangedEvent
Create an event to record the change in the Job Status
jobsToComplete() - 类 中的方法org.apache.hadoop.mapred.JobClient
Get the jobs that are not completed and not failed.
jobsToComplete() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
jobsToComplete() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
JobStory - org.apache.hadoop.tools.rumen中的接口
JobStory represents the runtime information available for a completed Map-Reduce job.
JobStoryProducer - org.apache.hadoop.tools.rumen中的接口
JobStoryProducer produces the sequence of JobStory's.
JobSubmissionFiles - org.apache.hadoop.mapreduce中的类
A utility to manage job submission files.
JobSubmissionFiles() - 类 的构造器org.apache.hadoop.mapreduce.JobSubmissionFiles
 
jobSubmit(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Submit a job to the Map-Reduce framework.
JobSubmittedEvent - org.apache.hadoop.tools.rumen中的类
Event to record the submission of a job
JobSubmittedEvent(JobID, String, String, long, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
JobSubmittedEvent(JobID, String, String, long, String, Map<JobACL, AccessControlList>) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
JobSubmittedEvent(JobID, String, String, long, String, Map<JobACL, AccessControlList>, String, String, String, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
JobSubmittedEvent(JobID, String, String, long, String, Map<JobACL, AccessControlList>, String, String, String, String, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
Create an event to record job submission
JobTokenIdentifier - org.apache.hadoop.mapreduce.security.token中的类
The token identifier for job token
JobTokenIdentifier() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
Default constructor
JobTokenIdentifier(Text) - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
Create a job token identifier from a jobid
JobTokenIdentifier.Renewer - org.apache.hadoop.mapreduce.security.token中的类
 
JobTokenIdentifier.Renewer() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier.Renewer
 
JobTokenSecretManager - org.apache.hadoop.mapreduce.security.token中的类
SecretManager for job token.
JobTokenSecretManager() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Default constructor
JobTokenSelector - org.apache.hadoop.mapreduce.security.token中的类
Look through tokens to find the first job token that matches the service and return it.
JobTokenSelector() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenSelector
 
JobTraceReader - org.apache.hadoop.tools.rumen中的类
Reading JSON-encoded job traces and produce LoggedJob instances.
JobTraceReader(Path, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.JobTraceReader
Constructor.
JobTraceReader(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.JobTraceReader
Constructor.
JobTracker - org.apache.hadoop.mapred中的类
JobTracker is the central location for submitting and tracking MR jobs in a network environment.
JobTracker.IllegalStateException - org.apache.hadoop.mapred中的异常错误
A client tried to submit a job before the Job Tracker was ready.
JobTracker.IllegalStateException(String) - 异常错误 的构造器org.apache.hadoop.mapred.JobTracker.IllegalStateException
 
JobTracker.SafeModeAction - org.apache.hadoop.mapred中的枚举
JobTracker SafeMode
JobTracker.State - org.apache.hadoop.mapred中的枚举
 
JobTrackerMXBean - org.apache.hadoop.mapred中的接口
The MXBean interface for JobTrackerInfo
JobTrackerNotYetInitializedException - org.apache.hadoop.mapred中的异常错误
This exception is thrown when the JobTracker is still initializing and not yet operational.
JobTrackerNotYetInitializedException() - 异常错误 的构造器org.apache.hadoop.mapred.JobTrackerNotYetInitializedException
 
JobUnsuccessfulCompletionEvent - org.apache.hadoop.tools.rumen中的类
Event to record Failed and Killed completion of jobs
JobUnsuccessfulCompletionEvent(JobID, long, int, int, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
Create an event to record unsuccessful completion (killed/failed) of jobs
Join - org.apache.hadoop.examples中的类
This is the trivial map/reduce program that does absolutely nothing other than use the framework to fragment and sort the input values.
Join() - 类 的构造器org.apache.hadoop.examples.Join
 
join() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Wait for service to finish.
join() - 类 中的方法org.apache.hadoop.http.HttpServer
 
join() - 类 中的方法org.apache.hadoop.ipc.Server
Wait for the server to be stopped.
join() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
 
join(CharSequence, Iterable<String>) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Concatenates strings, using a separator.
join(CharSequence, String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Concatenates strings, using a separator.
join(CharSequence, Object[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Concatenates objects, using a separator.
JoinRecordReader<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
Base class for Composite joins returning Tuples of arbitrary Writables.
JoinRecordReader(int, JobConf, int, Class<? extends WritableComparator>) - 类 的构造器org.apache.hadoop.mapred.join.JoinRecordReader
 
JoinRecordReader.JoinDelegationIterator - org.apache.hadoop.mapred.join中的类
Since the JoinCollector is effecting our operation, we need only provide an iterator proxy wrapping its operation.
JoinRecordReader.JoinDelegationIterator() - 类 的构造器org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
JRecord - org.apache.hadoop.record.compiler中的类
 
JRecord(String, ArrayList<JField<JType>>) - 类 的构造器org.apache.hadoop.record.compiler.JRecord
Creates a new instance of JRecord
JsonObjectMapperWriter<T> - org.apache.hadoop.tools.rumen中的类
Simple wrapper around JsonGenerator to write objects in JSON format.
JsonObjectMapperWriter(OutputStream, boolean) - 类 的构造器org.apache.hadoop.tools.rumen.JsonObjectMapperWriter
 
JsonUtil - org.apache.hadoop.hdfs.web中的类
JSON Utilities
JsonUtil() - 类 的构造器org.apache.hadoop.hdfs.web.JsonUtil
 
JspHelper - org.apache.hadoop.hdfs.server.namenode中的类
 
JspHelper() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.JspHelper
 
JString - org.apache.hadoop.record.compiler中的类
 
JString() - 类 的构造器org.apache.hadoop.record.compiler.JString
Creates a new instance of JString
JT_KEYTAB_FILE - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
JT_USER_NAME - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
JType - org.apache.hadoop.record.compiler中的类
Abstract Base class for all types supported by Hadoop Record I/O.
JType() - 类 的构造器org.apache.hadoop.record.compiler.JType
 
JVector - org.apache.hadoop.record.compiler中的类
 
JVector(JType) - 类 的构造器org.apache.hadoop.record.compiler.JVector
Creates a new instance of JVector
jvmContext - 类 中的变量org.apache.hadoop.mapred.Task
 
JvmFinishedEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
This is an UserLogEvent sent when the jvm finishes.
JvmFinishedEvent(JVMInfo) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JvmFinishedEvent
Create the event to inform that the jvm has finished.
JVMInfo - org.apache.hadoop.mapreduce.server.tasktracker中的类
 
JVMInfo(File, List<Task>) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
 
JvmMetrics - org.apache.hadoop.metrics.jvm中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
JvmMetricsSource - org.apache.hadoop.metrics2.source中的类
 
JvmTask - org.apache.hadoop.mapred中的类
 
JvmTask(Task, boolean) - 类 的构造器org.apache.hadoop.mapred.JvmTask
 
JvmTask() - 类 的构造器org.apache.hadoop.mapred.JvmTask
 

K

KerberosAuthenticationHandler - org.apache.hadoop.security.authentication.server中的类
The KerberosAuthenticationHandler implements the Kerberos SPNEGO authentication mechanism for HTTP.
KerberosAuthenticationHandler() - 类 的构造器org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
 
KerberosAuthenticator - org.apache.hadoop.security.authentication.client中的类
The KerberosAuthenticator implements the Kerberos SPNEGO authentication sequence.
KerberosAuthenticator() - 类 的构造器org.apache.hadoop.security.authentication.client.KerberosAuthenticator
 
KerberosInfo - org.apache.hadoop.security中的注释类型
Indicates Kerberos related information to be used
KerberosName - org.apache.hadoop.security中的类
This class implements parsing and handling of Kerberos principal names.
KerberosName(String) - 类 的构造器org.apache.hadoop.security.KerberosName
Create a name from the full Kerberos principal name.
KerberosName.BadFormatString - org.apache.hadoop.security中的异常错误
 
KerberosName.NoMatchingRule - org.apache.hadoop.security中的异常错误
 
KerberosUgiAuthenticator - org.apache.hadoop.hdfs.web中的类
Use UserGroupInformation as a fallback authenticator if the server does not use Kerberos SPNEGO HTTP authentication.
KerberosUgiAuthenticator() - 类 的构造器org.apache.hadoop.hdfs.web.KerberosUgiAuthenticator
 
KerberosUtil - org.apache.hadoop.security.authentication.util中的类
 
KerberosUtil() - 类 的构造器org.apache.hadoop.security.authentication.util.KerberosUtil
 
key() - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
Returns the key associated with the most recent call to ArrayFile.Reader.seek(long), ArrayFile.Reader.next(Writable), or ArrayFile.Reader.get(long,Writable).
key() - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
Return the key this RecordReader would supply on a call to next(K,V)
key(K) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
Clone the key at the head of this RecordReader into the object provided.
key() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Return the key for the current join or the value at the top of the RecordReader heap.
key(K) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Clone the key at the top of this RR into the given object.
key() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Return the key at the head of this RR.
key(K) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Clone the key at the head of this RR into the object supplied.
Key - org.apache.hadoop.util.bloom中的类
The general behavior of a key that must be stored in a filter.
Key() - 类 的构造器org.apache.hadoop.util.bloom.Key
default constructor - use with readFields
Key(byte[]) - 类 的构造器org.apache.hadoop.util.bloom.Key
Constructor.
Key(byte[], double) - 类 的构造器org.apache.hadoop.util.bloom.Key
Constructor.
KEY_CLASS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
 
KEY_VALUE_SEPERATOR - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
KeyFieldBasedComparator<K,V> - org.apache.hadoop.mapred.lib中的类
This comparator implementation provides a subset of the features provided by the Unix/GNU Sort.
KeyFieldBasedComparator() - 类 的构造器org.apache.hadoop.mapred.lib.KeyFieldBasedComparator
 
KeyFieldBasedComparator<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
This comparator implementation provides a subset of the features provided by the Unix/GNU Sort.
KeyFieldBasedComparator() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
 
KeyFieldBasedPartitioner<K2,V2> - org.apache.hadoop.mapred.lib中的类
Defines a way to partition keys based on certain key fields (also see KeyFieldBasedComparator.
KeyFieldBasedPartitioner() - 类 的构造器org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
 
KeyFieldBasedPartitioner<K2,V2> - org.apache.hadoop.mapreduce.lib.partition中的类
Defines a way to partition keys based on certain key fields (also see KeyFieldBasedComparator.
KeyFieldBasedPartitioner() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
 
keySerializer - 类 中的变量org.apache.hadoop.io.SequenceFile.Writer
 
keySet() - 类 中的方法org.apache.hadoop.io.MapWritable
keySet() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
KEYTAB - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Constant for the configuration property that indicates the keytab file path.
KeyUpdateCommand - org.apache.hadoop.hdfs.server.protocol中的类
 
KeyUpdateCommand(ExportedBlockKeys) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
 
KeyValueLineRecordReader - org.apache.hadoop.mapred中的类
This class treats a line in the input as a key/value pair separated by a separator character.
KeyValueLineRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.KeyValueLineRecordReader
 
KeyValueLineRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
This class treats a line in the input as a key/value pair separated by a separator character.
KeyValueLineRecordReader(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
KeyValueTextInputFormat - org.apache.hadoop.mapred中的类
An InputFormat for plain text files.
KeyValueTextInputFormat() - 类 的构造器org.apache.hadoop.mapred.KeyValueTextInputFormat
 
KeyValueTextInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
An InputFormat for plain text files.
KeyValueTextInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat
 
kids - 类 中的变量org.apache.hadoop.mapred.join.CompositeRecordReader
 
kill() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Kill the job and all its component tasks.
KILLED - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
 
killJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
killJob(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
killJob() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Kill the running job.
killJob() - 类 中的方法org.apache.hadoop.mapreduce.Job
Kill the running job.
killJob() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
killProcess(String, ProcessTree.Signal) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
Sends signal to process, forcefully terminating the process.
killProcessGroup(String, ProcessTree.Signal) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
Sends signal to all process belonging to same process group, forcefully terminating the process group.
killTask(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
killTask(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
killTask(TaskAttemptID, boolean) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Kill indicated task attempt.
killTask(String, boolean) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
已过时。
Applications should rather use RunningJob.killTask(TaskAttemptID, boolean)
killTask(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapreduce.Job
Kill indicated task attempt.
kind - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
An integer that describes the kind of this token.
KIND_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
 
KosmosFileSystem - org.apache.hadoop.fs.kfs中的类
A FileSystem backed by KFS.
KosmosFileSystem() - 类 的构造器org.apache.hadoop.fs.kfs.KosmosFileSystem
 
KRB5_CIPHER_SUITES - 类 中的静态变量org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
 
KRB5_FILTER - 类 中的静态变量org.apache.hadoop.http.HttpServer
 
Krb5AndCertsSslSocketConnector - org.apache.hadoop.security中的类
Extend Jetty's SslSocketConnector to optionally also provide Kerberos5ized SSL sockets.
Krb5AndCertsSslSocketConnector() - 类 的构造器org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
 
Krb5AndCertsSslSocketConnector(Krb5AndCertsSslSocketConnector.MODE) - 类 的构造器org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
 
Krb5AndCertsSslSocketConnector.Krb5SslFilter - org.apache.hadoop.security中的类
Filter that takes the Kerberos principal identified in the Krb5AndCertsSslSocketConnector and provides it the to the servlet at runtime, setting the principal and short name.
Krb5AndCertsSslSocketConnector.Krb5SslFilter() - 类 的构造器org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.Krb5SslFilter
 
Krb5AndCertsSslSocketConnector.MODE - org.apache.hadoop.security中的枚举
 

L

largestNumOfValues - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
LAST_PRE_UPGRADE_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
 
LAST_UPGRADABLE_HADOOP_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
 
LAST_UPGRADABLE_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
 
lastKey() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
lastUpdate - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
launchTask(String, String, String, List<String>, List<String>, File, String, String) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
Create all of the directories for the task and launches the child jvm.
launchTask(String, String, String, List<String>, List<String>, File, String, String) - 类 中的方法org.apache.hadoop.mapred.TaskController
Create all of the directories for the task and launches the child jvm.
launchTaskForJob(TaskTracker.TaskInProgress, JobConf, TaskTracker.RunningJob) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
LAYOUT_VERSION - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
LAYOUT_VERSIONS_203 - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
Layout versions of 203 release
LayoutVersion - org.apache.hadoop.hdfs.protocol中的类
This class tracks changes in the layout version of HDFS.
LayoutVersion() - 类 的构造器org.apache.hadoop.hdfs.protocol.LayoutVersion
 
layoutVersion - 类 中的变量org.apache.hadoop.hdfs.server.common.StorageInfo
 
LayoutVersion.Feature - org.apache.hadoop.hdfs.protocol中的枚举
Enums for features that change the layout version.
LazyOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
A Convenience class that creates output lazily.
LazyOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
 
LBRACE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
lDirAlloc - 类 中的变量org.apache.hadoop.mapred.Task
 
LEASE_HARDLIMIT_PERIOD - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
LEASE_RECOVER_PERIOD - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
LEASE_SOFTLIMIT_PERIOD - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
LeaseExpiredException - org.apache.hadoop.hdfs.server.namenode中的异常错误
The lease that was being used to create this file has expired.
LeaseExpiredException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException
 
leaseManager - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
LeaseManager - org.apache.hadoop.hdfs.server.namenode中的类
LeaseManager does the lease housekeeping for writing on files.
LENGTH - 类 中的静态变量org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
 
LengthParam - org.apache.hadoop.hdfs.web.resources中的类
Length parameter.
LengthParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.LengthParam
Constructor.
LengthParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.LengthParam
Constructor.
LESSER_ICOST - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
lessThan(Object, Object) - 类 中的方法org.apache.hadoop.util.PriorityQueue
Determines the ordering of objects in this priority queue.
level - 类 中的变量org.apache.hadoop.net.NodeBase
 
LexicalError(boolean, int, int, int, String, char) - 错误 中的静态方法org.apache.hadoop.record.compiler.generated.TokenMgrError
Returns a detailed message for the Error when it is thrown by the token manager to indicate a lexical error.
lexStateNames - 类 中的静态变量org.apache.hadoop.record.compiler.generated.RccTokenManager
 
LightWeightGSet<K,E extends K> - org.apache.hadoop.hdfs.util中的类
A low memory footprint GSet implementation, which uses an array for storing the elements and linked lists for collision resolution.
LightWeightGSet(int) - 类 的构造器org.apache.hadoop.hdfs.util.LightWeightGSet
 
LightWeightGSet.LinkedElement - org.apache.hadoop.hdfs.util中的接口
Elements of LightWeightGSet.
limitDecimalTo2(double) - 类 中的静态方法org.apache.hadoop.fs.FsShell
已过时。
Consider using StringUtils.limitDecimalTo2(double) instead.
limitDecimalTo2(double) - 类 中的静态方法org.apache.hadoop.util.StringUtils
 
line - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
LineDocInputFormat - org.apache.hadoop.contrib.index.example中的类
An InputFormat for LineDoc for plain text files where each line is a doc.
LineDocInputFormat() - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocInputFormat
 
LineDocLocalAnalysis - org.apache.hadoop.contrib.index.example中的类
Convert LineDocTextAndOp to DocumentAndOp as required by ILocalAnalysis.
LineDocLocalAnalysis() - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
 
LineDocRecordReader - org.apache.hadoop.contrib.index.example中的类
A simple RecordReader for LineDoc for plain text files where each line is a doc.
LineDocRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocRecordReader
Constructor
LineDocTextAndOp - org.apache.hadoop.contrib.index.example中的类
This class represents an operation.
LineDocTextAndOp() - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocTextAndOp
Constructor
LineReader - org.apache.hadoop.util中的类
A class that provides a line reader from an input stream.
LineReader(InputStream) - 类 的构造器org.apache.hadoop.util.LineReader
Create a line reader that reads from the given stream using the default buffer-size (64k).
LineReader(InputStream, int) - 类 的构造器org.apache.hadoop.util.LineReader
Create a line reader that reads from the given stream using the given buffer-size.
LineReader(InputStream, Configuration) - 类 的构造器org.apache.hadoop.util.LineReader
Create a line reader that reads from the given stream using the io.file.buffer.size specified in the given Configuration.
LineReader(InputStream, byte[]) - 类 的构造器org.apache.hadoop.util.LineReader
Create a line reader that reads from the given stream using the default buffer-size, and using a custom delimiter of array of bytes.
LineReader(InputStream, int, byte[]) - 类 的构造器org.apache.hadoop.util.LineReader
Create a line reader that reads from the given stream using the given buffer-size, and using a custom delimiter of array of bytes.
LineReader(InputStream, Configuration, byte[]) - 类 的构造器org.apache.hadoop.util.LineReader
Create a line reader that reads from the given stream using the io.file.buffer.size specified in the given Configuration, and using a custom delimiter of array of bytes.
LineRecordReader - org.apache.hadoop.mapred中的类
Treats keys as offset in file and value as line.
LineRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader
 
LineRecordReader(InputStream, long, long, int) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader
 
LineRecordReader(InputStream, long, long, Configuration) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader
 
LineRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
Treats keys as offset in file and value as line.
LineRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.LineRecordReader
 
LineRecordReader.LineReader - org.apache.hadoop.mapred中的类
已过时。
Use LineReader instead.
LineRecordReader.LineReader(InputStream, Configuration) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader.LineReader
已过时。
 
LINES_PER_MAP - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
 
LINK_URI - 类 中的静态变量org.apache.hadoop.streaming.StreamJob
 
linkStats - 类 中的变量org.apache.hadoop.fs.HardLink
 
LinuxMemoryCalculatorPlugin - org.apache.hadoop.util中的类
已过时。
LinuxMemoryCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
已过时。
 
LinuxResourceCalculatorPlugin - org.apache.hadoop.util中的类
Plugin to calculate resource information on Linux systems.
LinuxResourceCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.LinuxResourceCalculatorPlugin
 
LinuxResourceCalculatorPlugin(String, String, String, long) - 类 的构造器org.apache.hadoop.util.LinuxResourceCalculatorPlugin
Constructor which allows assigning the /proc/ directories.
list() - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
list(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
A wrapper for File.list().
listDeepSubPaths(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
listener - 类 中的变量org.apache.hadoop.http.HttpServer
 
listFiles(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
A wrapper for File.listFiles().
listJobConfProperties() - 类 中的方法org.apache.hadoop.streaming.StreamJob
Prints out the jobconf properties on stdout when verbose is specified.
listPaths(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Get a partial listing of the indicated directory Recommend to use HdfsFileStatus.EMPTY_NAME as startAfter if the application wants to fetch a listing starting from the first entry in the directory
ListPathsServlet - org.apache.hadoop.hdfs.server.namenode中的类
Obtain meta-information about a filesystem.
ListPathsServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.ListPathsServlet
 
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
List the statuses of the files/directories in the given path if the path is a directory.
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
List the statuses of the files/directories in the given path if the path is a directory.
listStatus(Path, PathFilter) - 类 中的方法org.apache.hadoop.fs.FileSystem
Filter files/directories in the given path using the user-supplied path filter.
listStatus(Path[]) - 类 中的方法org.apache.hadoop.fs.FileSystem
Filter files/directories in the given list of paths using default path filter.
listStatus(Path[], PathFilter) - 类 中的方法org.apache.hadoop.fs.FileSystem
Filter files/directories in the given list of paths using user-supplied path filter.
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
List files in a directory.
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
liststatus returns the children of a directory after looking up the index files.
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
listStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
If f is a file, this method will make a single call to S3.
listStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
List all the entries of a directory Note that this operation is not atomic for a large directory.
listStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
listStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
listStatus(JobConf) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
List input directories.
listStatus(JobConf) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFormat
 
listStatus(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
List input directories.
listStatus(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
 
listSubPaths(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
ljustify(String, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
lmthread - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
load(Configuration, String, Class<K>) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
Restores the object from the configuration.
loadArray(Configuration, String, Class<K>) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
Restores the array of objects from the configuration.
loadSecretManagerState(DataInputStream) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Load SecretManager state from fsimage.
LoadSnappy - org.apache.hadoop.io.compress.snappy中的类
Determines if Snappy native library is available and loads it if available.
LoadSnappy() - 类 的构造器org.apache.hadoop.io.compress.snappy.LoadSnappy
 
loadTokens(String, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
load job token from a file
LoadTypedBytes - org.apache.hadoop.streaming中的类
Utility program that reads typed bytes from standard input and stores them in a sequence file for which the path is given as an argument.
LoadTypedBytes(Configuration) - 类 的构造器org.apache.hadoop.streaming.LoadTypedBytes
 
LoadTypedBytes() - 类 的构造器org.apache.hadoop.streaming.LoadTypedBytes
 
LOCAL_MAX_MAPS - 类 中的静态变量org.apache.hadoop.mapred.LocalJobRunner
 
LocalDirAllocator - org.apache.hadoop.fs中的类
An implementation of a round-robin scheme for disk allocation for creating files.
LocalDirAllocator(String) - 类 的构造器org.apache.hadoop.fs.LocalDirAllocator
Create an allocator object
LocalFileSystem - org.apache.hadoop.fs中的类
Implement the FileSystem API for the checksumed local filesystem.
LocalFileSystem() - 类 的构造器org.apache.hadoop.fs.LocalFileSystem
 
LocalFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.fs.LocalFileSystem
 
localHadoop_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
localizeBin(String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
localizeConfiguration(JobConf) - 类 中的方法org.apache.hadoop.mapred.Task
Localize the given JobConf to be specific for this task.
localizeJobFiles(JobID, JobConf, Path, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
 
localizeJobFiles(JobID, JobConf, Path, Path, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
 
Localizer - org.apache.hadoop.mapreduce.server.tasktracker中的类
NOTE: This class is internal only and not intended for users!!
Localizer(FileSystem, String[]) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.Localizer
Create a Localizer instance
LocalJobRunner - org.apache.hadoop.mapred中的类
Implements MapReduce locally, in-process, for debugging.
LocalJobRunner(JobConf) - 类 的构造器org.apache.hadoop.mapred.LocalJobRunner
 
localRunnerNotification(JobConf, JobStatus) - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
 
localStorage - 类 中的变量org.apache.hadoop.mapred.TaskController
 
LocatedBlock - org.apache.hadoop.hdfs.protocol中的类
A LocatedBlock is a pair of Block, DatanodeInfo[] objects.
LocatedBlock() - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
 
LocatedBlock(Block, DatanodeInfo[]) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
 
LocatedBlock(Block, DatanodeInfo[], long) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
 
LocatedBlock(Block, DatanodeInfo[], long, boolean) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
 
locatedBlockCount() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
Get number of located blocks.
LocatedBlocks - org.apache.hadoop.hdfs.protocol中的类
Collection of blocks with their locations and the file length.
LocatedBlocks(long, List<LocatedBlock>, boolean) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlocks
 
locatedBlocks2Locations(LocatedBlocks) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
Convert a LocatedBlocks to BlockLocations[]
location - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
location - 类 中的变量org.apache.hadoop.net.NodeBase
 
lock(Path, boolean) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
lock() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Lock storage to provide exclusive access.
LOG - 类 中的静态变量org.apache.hadoop.contrib.index.main.UpdateIndex
 
LOG - 类 中的静态变量org.apache.hadoop.contrib.index.mapred.IndexUpdater
 
LOG - 类 中的静态变量org.apache.hadoop.contrib.utils.join.JobBase
 
LOG - 类 中的静态变量org.apache.hadoop.fs.FileSystem
 
LOG - 类 中的静态变量org.apache.hadoop.fs.FSInputChecker
 
LOG - 类 中的静态变量org.apache.hadoop.fs.ftp.FTPFileSystem
 
LOG - 类 中的静态变量org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.DFSClient
 
LOG - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSEditLog
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.LeaseManager
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NameNode
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
 
LOG - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.util.LightWeightGSet
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ExceptionHandler
 
LOG - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
LOG - 类 中的静态变量org.apache.hadoop.http.HttpServer
 
LOG - 类 中的静态变量org.apache.hadoop.io.compress.CompressionCodecFactory
 
LOG - 类 中的静态变量org.apache.hadoop.io.retry.RetryUtils
 
LOG - 类 中的静态变量org.apache.hadoop.ipc.Client
 
LOG - 类 中的静态变量org.apache.hadoop.ipc.Server
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.CleanupQueue
 
log(Log) - 类 中的方法org.apache.hadoop.mapred.Counters
Logs the current counter values.
LOG - 类 中的静态变量org.apache.hadoop.mapred.FileInputFormat
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.FileOutputCommitter
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.HDFSMonitorThread
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.LocalJobRunner
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.pipes.Submitter
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.ShuffleExceptionTracker
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.TaskController
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
LOG - 类 中的静态变量org.apache.hadoop.mapred.TaskTrackerStatus
 
LOG - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
 
LOG - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
 
LOG - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
 
LOG - 类 中的静态变量org.apache.hadoop.metrics.MetricsUtil
已过时。
 
LOG - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
LOG - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
 
LOG - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31
 
LOG - 类 中的静态变量org.apache.hadoop.net.DNS
 
LOG - 类 中的静态变量org.apache.hadoop.net.NetworkTopology
 
LOG - 类 中的静态变量org.apache.hadoop.security.SaslInputStream
 
LOG - 类 中的静态变量org.apache.hadoop.security.SaslRpcClient
 
LOG - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
 
LOG - 类 中的静态变量org.apache.hadoop.security.SecurityUtil
 
LOG - 类 中的静态变量org.apache.hadoop.security.token.Token
 
LOG - 类 中的静态变量org.apache.hadoop.streaming.PipeMapRed
 
LOG - 类 中的静态变量org.apache.hadoop.streaming.StreamBaseRecordReader
 
LOG - 类 中的静态变量org.apache.hadoop.streaming.StreamJob
 
LOG - 类 中的静态变量org.apache.hadoop.tools.DistCp
 
LOG - 类 中的静态变量org.apache.hadoop.util.Shell
 
Logalyzer - org.apache.hadoop.tools中的类
Logalyzer: A utility tool for archiving and analyzing hadoop logs.
Logalyzer() - 类 的构造器org.apache.hadoop.tools.Logalyzer
 
Logalyzer.LogComparator - org.apache.hadoop.tools中的类
A WritableComparator optimized for UTF8 keys of the logs.
Logalyzer.LogComparator() - 类 的构造器org.apache.hadoop.tools.Logalyzer.LogComparator
 
Logalyzer.LogRegexMapper<K extends WritableComparable> - org.apache.hadoop.tools中的类
A Mapper that extracts text matching a regular expression.
Logalyzer.LogRegexMapper() - 类 的构造器org.apache.hadoop.tools.Logalyzer.LogRegexMapper
 
logCloseFile(String, INodeFile) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
Add close lease record to edit log.
logFailed(JobID, long, int, int, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Logs job failed event.
logFailed(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
logFailed(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
Log task attempt failed event.
logFailed(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
logFailed(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
Log failed reduce task attempt.
logFailed(TaskID, String, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
Log job failed event.
logFailed(TaskID, String, long, String, TaskAttemptID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
 
logFinished(JobID, long, int, int, int, int, Counters, Counters, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Log job finished. closes the job file in history.
logFinished(TaskAttemptID, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
logFinished(TaskAttemptID, long, String, String, String, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
Log finish time of map task attempt.
logFinished(TaskAttemptID, long, long, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
logFinished(TaskAttemptID, long, long, long, String, String, String, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
Log finished event of this task.
logFinished(TaskID, String, long, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
Log finish time of task.
LoggedDiscreteCDF - org.apache.hadoop.tools.rumen中的类
A LoggedDiscreteCDF is a discrete approximation of a cumulative distribution function, with this class set up to meet the requirements of the Jackson JSON parser/generator.
LoggedDiscreteCDF() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
 
LoggedJob - org.apache.hadoop.tools.rumen中的类
A LoggedDiscreteCDF is a representation of an hadoop job, with the details of this class set up to meet the requirements of the Jackson JSON parser/generator.
LoggedJob.JobPriority - org.apache.hadoop.tools.rumen中的枚举
 
LoggedJob.JobType - org.apache.hadoop.tools.rumen中的枚举
 
LoggedLocation - org.apache.hadoop.tools.rumen中的类
A LoggedLocation is a representation of a point in an hierarchical network, represented as a series of membership names, broadest first.
LoggedLocation() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedLocation
 
LoggedNetworkTopology - org.apache.hadoop.tools.rumen中的类
A LoggedNetworkTopology represents a tree that in turn represents a hierarchy of hosts.
LoggedNetworkTopology() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedNetworkTopology
 
LoggedSingleRelativeRanking - org.apache.hadoop.tools.rumen中的类
A LoggedSingleRelativeRanking represents an X-Y coordinate of a single point in a discrete CDF.
LoggedSingleRelativeRanking() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
 
LoggedTask - org.apache.hadoop.tools.rumen中的类
A LoggedTask represents a [hadoop] task that is part of a hadoop job.
LoggedTaskAttempt - org.apache.hadoop.tools.rumen中的类
A LoggedTaskAttempt represents an attempt to run an hadoop task in a hadoop job.
login(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
If a keytab has been provided, login as that user.
login(Configuration, String, String, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
If a keytab has been provided, login as that user.
login() - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
 
logInited(JobID, long, int, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Logs launch time of job.
loginUserFromKeytab(String, String) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Log a user in from a keytab file.
loginUserFromKeytabAndReturnUGI(String, String) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Log a user in from a keytab file.
logJobInfo(JobID, long, long, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
logJobInfo(JobID, long, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
 
logJobPriority(JobID, JobPriority) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Log job's priority.
logKilled(JobID, long, int, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Logs job killed event.
logKilled(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
logKilled(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
Log task attempt killed event.
logKilled(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
logKilled(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
Log killed reduce task attempt.
LogLevel - org.apache.hadoop.log中的类
Change log level in runtime.
LogLevel() - 类 的构造器org.apache.hadoop.log.LogLevel
 
LogLevel.Servlet - org.apache.hadoop.log中的类
A servlet implementation
LogLevel.Servlet() - 类 的构造器org.apache.hadoop.log.LogLevel.Servlet
 
logMkDir(String, INode) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
Add create directory record to edit log
logOpenFile(String, INodeFileUnderConstruction) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
Add open lease record to edit log.
logout() - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
 
logOutput(String) - 类 中的方法org.apache.hadoop.mapred.TaskController
 
logSpec() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
 
logStarted(JobID, long, int, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
logStarted(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Logs job as running
logStarted(TaskAttemptID, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
logStarted(TaskAttemptID, long, String, int, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
已过时。
logStarted(TaskAttemptID, long, String, int, String, Locality, Avataar) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
Log start time of this map task attempt.
logStarted(TaskAttemptID, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
logStarted(TaskAttemptID, long, String, int, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
已过时。
logStarted(TaskAttemptID, long, String, int, String, Locality, Avataar) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
Log start time of Reduce task attempt.
logStarted(TaskID, String, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
Log start time of task (TIP).
logSubmitted(JobID, JobConf, String, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
logSubmitted(JobID, JobConf, String, long, boolean) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
 
logSync() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
 
logThreadInfo(Log, String, long) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
Log the current thread stacks at INFO level.
logUpdateMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Call namesystem to update editlogs for new master key.
logUpdateMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Log the updateMasterKey operation to edit logs
logUpdateMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
 
logUpdates(TaskID, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
Update the finish time of task.
LONG - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
LONG_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
LONG_VALUE_MAX - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
LONG_VALUE_MIN - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
LONG_VALUE_SUM - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
LongSumReducer<K> - org.apache.hadoop.mapred.lib中的类
A Reducer that sums long values.
LongSumReducer() - 类 的构造器org.apache.hadoop.mapred.lib.LongSumReducer
 
LongSumReducer<KEY> - org.apache.hadoop.mapreduce.lib.reduce中的类
 
LongSumReducer() - 类 的构造器org.apache.hadoop.mapreduce.lib.reduce.LongSumReducer
 
LongTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
 
LongValueMax - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that maintain the maximum of a sequence of long values.
LongValueMax() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.LongValueMax
the default constructor
LongValueMin - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that maintain the minimum of a sequence of long values.
LongValueMin() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.LongValueMin
the default constructor
LongValueSum - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that sums up a sequence of long values.
LongValueSum() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.LongValueSum
the default constructor
LongWritable - org.apache.hadoop.io中的类
A WritableComparable for longs.
LongWritable() - 类 的构造器org.apache.hadoop.io.LongWritable
 
LongWritable(long) - 类 的构造器org.apache.hadoop.io.LongWritable
 
LongWritable.Comparator - org.apache.hadoop.io中的类
A Comparator optimized for LongWritable.
LongWritable.Comparator() - 类 的构造器org.apache.hadoop.io.LongWritable.Comparator
 
LongWritable.DecreasingComparator - org.apache.hadoop.io中的类
A decreasing Comparator optimized for LongWritable.
LongWritable.DecreasingComparator() - 类 的构造器org.apache.hadoop.io.LongWritable.DecreasingComparator
 
lowerBound(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Move the cursor to the first entry whose key is greater than or equal to the input key.
lowerBound(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Move the cursor to the first entry whose key is greater than or equal to the input key.
lowerBound(List<? extends T>, T, Comparator<? super T>) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Lower bound binary search.
lowerBound(List<? extends Comparable<? super T>>, T) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Lower bound binary search.
LT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
LuceneUtil - org.apache.hadoop.contrib.index.lucene中的类
This class copies some methods from Lucene's SegmentInfos since that class is not public.
LuceneUtil() - 类 的构造器org.apache.hadoop.contrib.index.lucene.LuceneUtil
 

M

MachineNode - org.apache.hadoop.tools.rumen中的类
MachineNode represents the configuration of a cluster node.
MachineNode.Builder - org.apache.hadoop.tools.rumen中的类
Builder for a NodeInfo object
MachineNode.Builder(String, int) - 类 的构造器org.apache.hadoop.tools.rumen.MachineNode.Builder
Start building a new NodeInfo object.
machineNodes - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
 
main(String[]) - 类 中的静态方法org.apache.hadoop.conf.Configuration
For debugging.
main(String[]) - 类 中的静态方法org.apache.hadoop.contrib.index.main.UpdateIndex
The main() method
main(String[]) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.AggregateWordCount
The main driver for word count map/reduce program.
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.AggregateWordHistogram
The main driver for word count map/reduce program.
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.DistributedPentomino
Launch the solver on 9x10 board and the one sided pentominos.
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.OneSidedPentomino
Solve the 3x30 puzzle.
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.Pentomino
Solve the 6x10 pentomino puzzle.
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.Sudoku
Solves a set of sudoku puzzles.
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.DBCountPageView
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.ExampleDriver
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.Grep
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.Join
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.MultiFileWordCount
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.PiEstimator
main method for running it as a stand alone command.
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.RandomTextWriter
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.RandomWriter
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.SecondarySort
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.SleepJob
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.Sort
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraGen
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraSort
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraValidate
 
main(String[]) - 类 中的静态方法org.apache.hadoop.examples.WordCount
 
main(String[]) - 类 中的静态方法org.apache.hadoop.fs.DF
 
main(String[]) - 类 中的静态方法org.apache.hadoop.fs.DU
 
main(String[]) - 类 中的静态方法org.apache.hadoop.fs.FsShell
main() has some simple utility methods
main(String[]) - 类 中的静态方法org.apache.hadoop.fs.s3.MigrationTool
 
main(String[]) - 类 中的静态方法org.apache.hadoop.fs.Trash
Run an emptier.
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.balancer.Balancer
Run a balancer
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
main() has some simple utility methods.
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
Command-line interface
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DFSAdmin
main() has some simple utility methods.
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DFSck
 
main(String...) - 类 中的静态方法org.apache.hadoop.hdfs.tools.HDFSConcat
 
main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
Entry point to command-line-driven operation.
main(String[]) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
 
main(String[]) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
A little test program.
main(String[]) - 类 中的静态方法org.apache.hadoop.io.file.tfile.TFile
Dumping the TFile information.
main(String[]) - 类 中的静态方法org.apache.hadoop.io.MapFile
 
main(String[]) - 类 中的静态方法org.apache.hadoop.log.LogLevel
A command line implementation
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.IsolationRunner
Run a single task.
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
 
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobHistoryServer
Start job history server as an independent process
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobLocalizer
 
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
Start the JobTracker process.
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
create and run an Aggregate based map/reduce job.
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.InputSampler
 
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Submit a pipes job based on the command line arguments.
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskLogsTruncater
 
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
Start the TaskTracker, point toward the indicated JobTracker
main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.tools.MRAdmin
 
main(String[]) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.InputSampler
 
main(String[]) - 类 中的静态方法org.apache.hadoop.record.compiler.generated.Rcc
 
main(String[]) - 类 中的静态方法org.apache.hadoop.security.KerberosName
 
main(String[]) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
A test method to print out the current user's UGI.
main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.DumpTypedBytes
 
main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.HadoopStreaming
 
main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.JarBuilder
Test program
main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.LoadTypedBytes
 
main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.PathFinder
 
main(String[]) - 类 中的静态方法org.apache.hadoop.tools.DistCh
 
main(String[]) - 类 中的静态方法org.apache.hadoop.tools.DistCp
 
main(String[]) - 类 中的静态方法org.apache.hadoop.tools.distcp2.DistCp
Main function of the DistCp program.
main(String[]) - 类 中的静态方法org.apache.hadoop.tools.HadoopArchives
the main functions
main(String[]) - 类 中的静态方法org.apache.hadoop.tools.Logalyzer
 
main(String[]) - 类 中的静态方法org.apache.hadoop.tools.rumen.HadoopLogsAnalyzer
已过时。
 
main(String[]) - 类 中的静态方法org.apache.hadoop.tools.rumen.TraceBuilder
 
main(String[]) - 类 中的静态方法org.apache.hadoop.util.hash.JenkinsHash
Compute the hash of the specified file
main(String[]) - 类 中的静态方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
main(String[]) - 类 中的静态方法org.apache.hadoop.util.PlatformName
 
main(String[]) - 类 中的静态方法org.apache.hadoop.util.PrintJarMainClass
 
main(String[]) - 类 中的静态方法org.apache.hadoop.util.RunJar
Run a Hadoop job jar.
main(String[]) - 类 中的静态方法org.apache.hadoop.util.VersionInfo
 
makeClassLoader(ClassLoader) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
Creates a class loader that includes the designated files and archives.
makeCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters
Convert a counters object into a single line that is easy to parse.
makeComparator(String) - 类 中的静态方法org.apache.hadoop.io.file.tfile.TFile
Make a raw comparator from a string name.
makeEscapedCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
Returns the compact stringified version of the counter in the format [(actual-name)(display-name)(value)]
makeEscapedCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Returns the compact stringified version of the group in the format {(actual-name)(display-name)(value)[][][]} where [] are compact strings for the counters within.
makeEscapedCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters
Represent the counter in a textual format that can be converted back to its object form
makeInstance(String[], Configuration, SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Make an instance of DataNode after ensuring that at least one of the given data directories (and their parent directories, if necessary) can be created.
makeJavaCommand(Class, String[]) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
makeLock(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
makeQualified(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Make sure that a path specifies a FileSystem.
makeQualified(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Make sure that a path specifies a FileSystem.
makeQualified(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
makeQualified(FileSystem) - 类 中的方法org.apache.hadoop.fs.Path
Returns a qualified path object.
makeQualified(URI, Path) - 类 中的方法org.apache.hadoop.fs.Path
Returns a qualified path object.
makeShellPath(String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Convert a os-native filename to a path that works for the shell.
makeShellPath(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Convert a os-native filename to a path that works for the shell.
makeShellPath(File, boolean) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Convert a os-native filename to a path that works for the shell.
makeSocketAddr(String, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Create a socket address with the given host and port.
map(DocumentID, DocumentAndOp, OutputCollector<DocumentID, DocumentAndOp>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
 
map(DocumentID, LineDocTextAndOp, OutputCollector<DocumentID, DocumentAndOp>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
 
map(K, V, OutputCollector<Shard, IntermediateForm>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
Map a key-value pair to a shard-and-intermediate form pair.
map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
map(WritableComparable, Text, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.examples.dancing.DistributedPentomino.PentMap
Break the prefix string into moves (a sequence of integer row ids that will be selected for each column in order).
map(MultiFileWordCount.WordOffset, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MapClass
 
map(LongWritable, LongWritable, OutputCollector<BooleanWritable, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiMapper
Map method.
map(LongWritable, Text, Mapper<LongWritable, Text, SecondarySort.IntPair, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.SecondarySort.MapClass
 
map(IntWritable, IntWritable, OutputCollector<IntWritable, NullWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob
 
map(LongWritable, NullWritable, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.examples.terasort.TeraGen.SortGenMapper
 
map(Object, Text, Mapper<Object, Text, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.WordCount.TokenizerMapper
 
map(K1, V1, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
Do nothing.
map(K1, V1, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorMapper
the map function.
map(K1, V1, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorReducer
Do nothing.
map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.ChainMapper
Chains the map(...)
map(K1, V1, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingMapper
 
map(K, V, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
The identify function.
map(K, V, OutputCollector<K, V>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.IdentityMapper
The identify function.
map(K, V, OutputCollector<V, K>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.InverseMapper
The inverse function.
map(K, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.RegexMapper
 
map(K, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.TokenCountMapper
 
map(K1, V1, OutputCollector<K2, V2>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.Mapper
Maps a single input key/value pair into an intermediate key/value pair.
map(K, V, Mapper<K, V, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
The identify function.
map(K, V, Mapper<K, V, V, K>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.map.InverseMapper
The inverse function.
map(Object, Text, Mapper<Object, Text, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.map.TokenCounterMapper
 
map(KEYIN, VALUEIN, Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
Called once for each key/value pair in the input split.
Map() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
MAP - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeMapper
 
map(Text, FileStatus, Mapper<Text, FileStatus, Text, Text>.Context) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper
Implementation of the Mapper<>::map().
map(K, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogRegexMapper
 
MAP_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
MAP_OUTPUT_KEY_VALUE_SPEC - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
MAP_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
MapAttempt20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
 
MapAttempt20LineHistoryEventEmitter() - 类 的构造器org.apache.hadoop.tools.rumen.MapAttempt20LineHistoryEventEmitter
 
MapAttemptFinishedEvent - org.apache.hadoop.tools.rumen中的类
Event to record successful completion of a map attempt
MapAttemptFinishedEvent(TaskAttemptID, TaskType, String, long, long, String, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
Create an event for successful completion of map attempts
mapCmd_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
MapContext<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
The context that is given to the Mapper.
MapContext(Configuration, TaskAttemptID, RecordReader<KEYIN, VALUEIN>, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, InputSplit) - 类 的构造器org.apache.hadoop.mapreduce.MapContext
 
mapDebugSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
MapFile - org.apache.hadoop.io中的类
A file-based map from keys to values.
MapFile() - 类 的构造器org.apache.hadoop.io.MapFile
 
MapFile.Reader - org.apache.hadoop.io中的类
Provide access to an existing map.
MapFile.Reader(FileSystem, String, Configuration) - 类 的构造器org.apache.hadoop.io.MapFile.Reader
Construct a map reader for the named map.
MapFile.Reader(FileSystem, String, WritableComparator, Configuration) - 类 的构造器org.apache.hadoop.io.MapFile.Reader
Construct a map reader for the named map using the named comparator.
MapFile.Reader(FileSystem, String, WritableComparator, Configuration, boolean) - 类 的构造器org.apache.hadoop.io.MapFile.Reader
Hook to allow subclasses to defer opening streams until further initialization is complete.
MapFile.Writer - org.apache.hadoop.io中的类
Writes a new map.
MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map for keys of the named class.
MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map for keys of the named class.
MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map for keys of the named class.
MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map for keys of the named class.
MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map using the named key comparator.
MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map using the named key comparator.
MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map using the named key comparator.
MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
Create the named map using the named key comparator.
MapFileOutputFormat - org.apache.hadoop.mapred中的类
An OutputFormat that writes MapFiles.
MapFileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.MapFileOutputFormat
 
mapOutputFile - 类 中的变量org.apache.hadoop.mapred.Task
 
mapOutputLost(TaskAttemptID, String) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
A completed map task's output has been lost.
Mapper<K1,V1,K2,V2> - org.apache.hadoop.mapred中的接口
Maps input key/value pairs to a set of intermediate key/value pairs.
Mapper<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
Maps input key/value pairs to a set of intermediate key/value pairs.
Mapper() - 类 的构造器org.apache.hadoop.mapreduce.Mapper
 
Mapper.Context - org.apache.hadoop.mapreduce中的类
 
Mapper.Context(Configuration, TaskAttemptID, RecordReader<KEYIN, VALUEIN>, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, InputSplit) - 类 的构造器org.apache.hadoop.mapreduce.Mapper.Context
 
mapProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
mapProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the progress of the job's map-tasks, as a float between 0.0 and 1.0.
mapProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
Get the progress of the job's map-tasks, as a float between 0.0 and 1.0.
MAPRED_CLUSTER_MAP_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
MAPRED_CLUSTER_MAX_MAP_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
MAPRED_CLUSTER_MAX_REDUCE_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
MAPRED_CLUSTER_REDUCE_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
 
MAPRED_HISTORY_SERVER_EMBEDDED - 类 中的静态变量org.apache.hadoop.mapred.JobHistoryServer
 
MAPRED_HISTORY_SERVER_HTTP_ADDRESS - 类 中的静态变量org.apache.hadoop.mapred.JobHistoryServer
 
MAPRED_JOB_MAP_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
MAPRED_JOB_REDUCE_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
MAPRED_LOCAL_DIR_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Property name for the configuration property mapred.local.dir
MAPRED_MAP_TASK_ENV - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Configuration key to set the maximum virutal memory available to the map tasks.
MAPRED_MAP_TASK_JAVA_OPTS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Configuration key to set the java command line options for the map tasks.
MAPRED_MAP_TASK_ULIMIT - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Configuration key to set the maximum virutal memory available to the map tasks (in kilo-bytes).
MAPRED_REDUCE_TASK_ENV - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Configuration key to set the maximum virutal memory available to the reduce tasks.
MAPRED_REDUCE_TASK_JAVA_OPTS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Configuration key to set the java command line options for the reduce tasks.
MAPRED_REDUCE_TASK_ULIMIT - 类 中的静态变量org.apache.hadoop.mapred.JobConf
Configuration key to set the maximum virutal memory available to the reduce tasks (in kilo-bytes).
MAPRED_TASK_DEFAULT_MAXVMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
已过时。 
MAPRED_TASK_ENV - 类 中的静态变量org.apache.hadoop.mapred.JobConf
MAPRED_TASK_JAVA_OPTS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
MAPRED_TASK_MAXPMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
已过时。 
MAPRED_TASK_MAXVMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
MAPRED_TASK_ULIMIT - 类 中的静态变量org.apache.hadoop.mapred.JobConf
mapRedFinished() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
 
MAPREDUCE_CLIENT_RETRY_POLICY_ENABLED_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobClient
 
MAPREDUCE_CLIENT_RETRY_POLICY_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobClient
 
MAPREDUCE_CLIENT_RETRY_POLICY_SPEC_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobClient
 
MAPREDUCE_CLIENT_RETRY_POLICY_SPEC_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobClient
 
MAPREDUCE_DELEGATION_KIND - 类 中的静态变量org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenIdentifier
 
MAPREDUCE_JOBEND_NOTIFICATION_TIMEOUT_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobEndNotifier
 
MAPREDUCE_RECOVER_JOB - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
MapReduceBase - org.apache.hadoop.mapred中的类
Base class for Mapper and Reducer implementations.
MapReduceBase() - 类 的构造器org.apache.hadoop.mapred.MapReduceBase
 
MapReducePolicyProvider - org.apache.hadoop.mapred中的类
PolicyProvider for Map-Reduce protocols.
MapReducePolicyProvider() - 类 的构造器org.apache.hadoop.mapred.MapReducePolicyProvider
 
MapRunnable<K1,V1,K2,V2> - org.apache.hadoop.mapred中的接口
Expert: Generic interface for Mappers.
MapRunner<K1,V1,K2,V2> - org.apache.hadoop.mapred中的类
Default MapRunnable implementation.
MapRunner() - 类 的构造器org.apache.hadoop.mapred.MapRunner
 
MapTaskAttemptInfo - org.apache.hadoop.tools.rumen中的类
MapTaskAttemptInfo represents the information with regard to a map task attempt.
MapTaskAttemptInfo(TaskStatus.State, TaskInfo, long) - 类 的构造器org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
 
MapTaskCompletionEventsUpdate - org.apache.hadoop.mapred中的类
A class that represents the communication between the tasktracker and child tasks w.r.t the map task completion events.
MapTaskCompletionEventsUpdate() - 类 的构造器org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
 
MapTaskCompletionEventsUpdate(TaskCompletionEvent[], boolean) - 类 的构造器org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
 
MapTypeID - org.apache.hadoop.record.meta中的类
Represents typeID for a Map
MapTypeID(TypeID, TypeID) - 类 的构造器org.apache.hadoop.record.meta.MapTypeID
 
MapWritable - org.apache.hadoop.io中的类
A Writable Map.
MapWritable() - 类 的构造器org.apache.hadoop.io.MapWritable
Default constructor.
MapWritable(MapWritable) - 类 的构造器org.apache.hadoop.io.MapWritable
Copy constructor.
mark(int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
 
mark(int) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
mark(int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
 
mark(int) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
markBlockAsCorrupt(Block, DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Mark the block belonging to datanode as corrupt
markJobLogsForDeletion(long, int, JobID) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
Adds job user-log directory to cleanup thread to delete logs after user-log retain hours.
markSupported() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
 
markSupported() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
markSupported() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
We definitely don't support marks
markSupported() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
markSupported() - 类 中的方法org.apache.hadoop.security.SaslInputStream
Tests if this input stream supports the mark and reset methods, which it does not.
matches(CharSequence) - 类 中的方法org.apache.hadoop.fs.GlobPattern
Match input against the compiled glob pattern
matches(String) - 类 中的静态方法org.apache.hadoop.fs.shell.Count
Check if a command is the count command
max() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
 
max() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
 
MAX_ALPHA_SIZE - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
MAX_BLOCK_ACQUIRE_FAILURES - 类 中的静态变量org.apache.hadoop.hdfs.DFSClient
 
MAX_BLOCKSIZE - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
The maximum supported blocksize == 9.
MAX_CODE_LEN - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
MAX_COUNTER_LIMIT - 类 中的静态变量org.apache.hadoop.mapred.Counters
limit on counters
MAX_GROUP_LIMIT - 类 中的静态变量org.apache.hadoop.mapred.Counters
the max groups allowed
MAX_NO_PENDING_BLOCK_ITERATIONS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
 
MAX_NUM_CONCURRENT_MOVES - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
The maximum number of concurrent blocks moves for balancing purpose at a datanode
MAX_PATH_DEPTH - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
MAX_PATH_LENGTH - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
MAX_SELECTORS - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
MAX_TRIE_DEPTH - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
 
MAX_USER_JOBCONF_SIZE_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
the config key for max user jobconf size
maxAvailableData - 类 中的变量org.apache.hadoop.io.compress.CompressionInputStream
 
MAXIMUM_FP - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
MaximumFP Selection.
maximumDistance - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
 
maxNextCharInd - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
MBeans - org.apache.hadoop.metrics2.util中的类
This util class provides a method to register an MBean using our standard naming convention as described in the doc for {link MBeans.register(String, String, Object)
MBeans() - 类 的构造器org.apache.hadoop.metrics2.util.MBeans
 
mBeanServer - 类 中的变量org.apache.hadoop.jmx.JMXJsonServlet
MBean server.
MBeanUtil - org.apache.hadoop.metrics.util中的类
已过时。
in favor of MBeans.
MBeanUtil() - 类 的构造器org.apache.hadoop.metrics.util.MBeanUtil
已过时。
 
MD5_LEN - 类 中的静态变量org.apache.hadoop.io.MD5Hash
 
MD5_LEN - 类 中的静态变量org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
 
MD5_LEN - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
 
MD5Hash - org.apache.hadoop.io中的类
A Writable for MD5 hash values.
MD5Hash() - 类 的构造器org.apache.hadoop.io.MD5Hash
Constructs an MD5Hash.
MD5Hash(String) - 类 的构造器org.apache.hadoop.io.MD5Hash
Constructs an MD5Hash from a hex string.
MD5Hash(byte[]) - 类 的构造器org.apache.hadoop.io.MD5Hash
Constructs an MD5Hash with a specified value.
MD5Hash.Comparator - org.apache.hadoop.io中的类
A WritableComparator optimized for MD5Hash keys.
MD5Hash.Comparator() - 类 的构造器org.apache.hadoop.io.MD5Hash.Comparator
 
MD5MD5CRC32FileChecksum - org.apache.hadoop.fs中的类
MD5 of MD5 of CRC32.
MD5MD5CRC32FileChecksum() - 类 的构造器org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
Same as this(0, 0, null)
MD5MD5CRC32FileChecksum(int, long, MD5Hash) - 类 的构造器org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
Create a MD5FileChecksum
mean() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
 
mechanismName - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.AuthMethod
 
membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Determines wether a specified key belongs to this filter.
MemoryCalculatorPlugin - org.apache.hadoop.util中的类
已过时。
MemoryCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.MemoryCalculatorPlugin
已过时。
 
merge(List<SequenceFile.Sorter.SegmentDescriptor>, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Merges the list of segments of type SegmentDescriptor
merge(Path[], boolean, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Merges the contents of files passed in Path[] using a max factor value that is already set
merge(Path[], boolean, int, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Merges the contents of files passed in Path[]
merge(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Merges the contents of files passed in Path[]
merge(Path[], Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Merge the provided files.
merge(List, List, String) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
 
MergeSort - org.apache.hadoop.util中的类
An implementation of the core algorithm of MergeSort.
MergeSort(Comparator<IntWritable>) - 类 的构造器org.apache.hadoop.util.MergeSort
 
mergeSort(int[], int[], int, int) - 类 中的方法org.apache.hadoop.util.MergeSort
 
MetaBlockAlreadyExists - org.apache.hadoop.io.file.tfile中的异常错误
Exception - Meta Block with the same name already exists.
MetaBlockDoesNotExist - org.apache.hadoop.io.file.tfile中的异常错误
Exception - No such Meta Block with the given name.
METADATA_EXTENSION - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.FSDataset
 
METADATA_EXTENSION_LENGTH - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.FSDataset
 
METADATA_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.FSDataset
 
metaFileExists(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
metaFileExists(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Does the meta file exist for this block?
MetaRecoveryContext - org.apache.hadoop.hdfs.server.namenode中的类
Context data for an ongoing NameNode recovery process.
MetaRecoveryContext(int) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
 
metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
 
metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Dumps DFS data structures into specified file.
metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
metaSave(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Dumps namenode data structures into specified file.
metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Dumps namenode state into specified file
metaSave(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Dumps DFS data structures into specified file.
Metric - org.apache.hadoop.metrics2中的类
The immutable metric
Metric(String) - 类 的构造器org.apache.hadoop.metrics2.Metric
Construct the metric with name only
Metric(String, String) - 类 的构造器org.apache.hadoop.metrics2.Metric
Construct the metric with a name and a description
MetricCounter<T extends Number> - org.apache.hadoop.metrics2中的类
A generic immutable counter metric type
MetricCounter(String, String) - 类 的构造器org.apache.hadoop.metrics2.MetricCounter
Construct a counter metric
MetricGauge<T extends Number> - org.apache.hadoop.metrics2中的类
A generic immutable gauge metric
MetricGauge(String, String) - 类 的构造器org.apache.hadoop.metrics2.MetricGauge
Construct a gauge metric
MetricMutable - org.apache.hadoop.metrics2.lib中的类
The mutable metric interface
MetricMutable(String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutable
Construct a mutable metric
MetricMutableCounter<T extends Number> - org.apache.hadoop.metrics2.lib中的类
The mutable counter (monotonically increasing) metric interface
MetricMutableCounter(String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableCounter
Construct the metric with name and description
MetricMutableCounterInt - org.apache.hadoop.metrics2.lib中的类
A mutable int counter for implementing metrics sources
MetricMutableCounterInt(String, String, int) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
Construct a mutable int counter
MetricMutableCounterLong - org.apache.hadoop.metrics2.lib中的类
A mutable long counter
MetricMutableCounterLong(String, String, long) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
Construct a mutable long counter
MetricMutableFactory - org.apache.hadoop.metrics2.lib中的类
Factory class for mutable metrics
MetricMutableFactory() - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableFactory
 
MetricMutableGauge<T extends Number> - org.apache.hadoop.metrics2.lib中的类
The mutable gauge metric interface
MetricMutableGauge(String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableGauge
Construct the metric with name and description
MetricMutableGaugeInt - org.apache.hadoop.metrics2.lib中的类
A mutable int gauge
MetricMutableGaugeInt(String, String, int) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
Construct a mutable int gauge metric
MetricMutableGaugeLong - org.apache.hadoop.metrics2.lib中的类
A mutable long gauge
MetricMutableGaugeLong(String, String, long) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
Construct a mutable long gauge metric
MetricMutableStat - org.apache.hadoop.metrics2.lib中的类
A mutable metric with stats Useful for keep throughput/latency stats.
MetricMutableStat(String, String, String, String, boolean) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableStat
Construct a sample statistics metric
MetricMutableStat(String, String, String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableStat
Construct a snapshot stat metric with extended stat off by default
metrics() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
metrics() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Get the metrics
metrics() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
Get the metrics of the record
metrics() - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
 
MetricsBase - org.apache.hadoop.metrics.util中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsBase(String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsBase
已过时。
 
MetricsBase(String, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsBase
已过时。
 
MetricsBuilder - org.apache.hadoop.metrics2中的接口
The metrics builder interface
metricsCache - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
 
MetricsCache - org.apache.hadoop.metrics2.util中的类
A metrics cache for sinks that don't support sparse updates.
MetricsCache() - 类 的构造器org.apache.hadoop.metrics2.util.MetricsCache
 
MetricsCache.Record - org.apache.hadoop.metrics2.util中的类
Cached record
MetricsCache.Record() - 类 的构造器org.apache.hadoop.metrics2.util.MetricsCache.Record
 
MetricsConfigException - org.apache.hadoop.metrics2.impl中的异常错误
The metrics configuration runtime exception
MetricsContext - org.apache.hadoop.metrics中的接口
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsDynamicMBeanBase - org.apache.hadoop.metrics.util中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsDynamicMBeanBase(MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
已过时。
 
metricsEntrySet() - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
 
MetricsException - org.apache.hadoop.metrics中的异常错误
已过时。
in favor of MetricsException.
MetricsException() - 异常错误 的构造器org.apache.hadoop.metrics.MetricsException
已过时。
Creates a new instance of MetricsException
MetricsException(String) - 异常错误 的构造器org.apache.hadoop.metrics.MetricsException
已过时。
Creates a new instance of MetricsException
MetricsException - org.apache.hadoop.metrics2中的异常错误
A general metrics exception wrapper
MetricsException(String) - 异常错误 的构造器org.apache.hadoop.metrics2.MetricsException
Construct the exception with a message
MetricsException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.metrics2.MetricsException
Construct the exception with a message and a cause
MetricsException(Throwable) - 异常错误 的构造器org.apache.hadoop.metrics2.MetricsException
Construct the exception with a cause
MetricsFilter - org.apache.hadoop.metrics2中的类
The metrics filter interface
MetricsFilter() - 类 的构造器org.apache.hadoop.metrics2.MetricsFilter
 
MetricsIntValue - org.apache.hadoop.metrics.util中的类
已过时。
MetricsIntValue(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsIntValue
已过时。
Constructor - create a new metric
MetricsIntValue(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsIntValue
已过时。
Constructor - create a new metric
MetricsLongValue - org.apache.hadoop.metrics.util中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsLongValue(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsLongValue
已过时。
Constructor - create a new metric
MetricsLongValue(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsLongValue
已过时。
Constructor - create a new metric
MetricsPlugin - org.apache.hadoop.metrics2中的接口
A fairly generic plugin interface
MetricsRecord - org.apache.hadoop.metrics中的接口
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsRecord - org.apache.hadoop.metrics2中的接口
An immutable snapshot of metrics with a timestamp
MetricsRecordBuilder - org.apache.hadoop.metrics2中的类
The metrics record builder interface
MetricsRecordBuilder() - 类 的构造器org.apache.hadoop.metrics2.MetricsRecordBuilder
 
MetricsRecordImpl - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsRecordImpl(String, AbstractMetricsContext) - 类 的构造器org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Creates a new instance of FileRecord
MetricsRecordImpl - org.apache.hadoop.metrics2.impl中的类
 
MetricsRecordImpl(String, long, Iterable<MetricsTag>, Iterable<Metric>) - 类 的构造器org.apache.hadoop.metrics2.impl.MetricsRecordImpl
Construct a metrics record
MetricsRegistry - org.apache.hadoop.metrics.util中的类
已过时。
in favor of MetricsRegistry.
MetricsRegistry() - 类 的构造器org.apache.hadoop.metrics.util.MetricsRegistry
已过时。
 
MetricsRegistry - org.apache.hadoop.metrics2.lib中的类
An optional metrics registry class for creating and maintaining a collection of MetricsMutables, making writing metrics source easier.
MetricsRegistry(String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricsRegistry
Construct the registry with a record name
MetricsRegistry(String, MetricMutableFactory) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricsRegistry
Construct the registry with a name and a metric factory
metricsServers - 类 中的变量org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
MetricsServlet - org.apache.hadoop.metrics中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsServlet() - 类 的构造器org.apache.hadoop.metrics.MetricsServlet
已过时。
 
MetricsSink - org.apache.hadoop.metrics2中的接口
The metrics sink interface
MetricsSource - org.apache.hadoop.metrics2中的接口
The metrics source interface
MetricsSystem - org.apache.hadoop.metrics2中的接口
The metrics system interface
MetricsSystem.AbstractCallback - org.apache.hadoop.metrics2中的类
Convenient abstract class for implementing callback interface
MetricsSystem.AbstractCallback() - 类 的构造器org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
 
MetricsSystem.Callback - org.apache.hadoop.metrics2中的接口
The metrics system callback interface
MetricsSystemImpl - org.apache.hadoop.metrics2.impl中的类
A base class for metrics system singletons
MetricsSystemImpl(String) - 类 的构造器org.apache.hadoop.metrics2.impl.MetricsSystemImpl
Construct the metrics system
MetricsSystemImpl() - 类 的构造器org.apache.hadoop.metrics2.impl.MetricsSystemImpl
Construct the system but not initializing (read config etc.) it.
MetricsSystemMXBean - org.apache.hadoop.metrics2中的接口
The JMX interface to the metrics system
MetricsTag - org.apache.hadoop.metrics2中的类
Immutable tag for metrics (for grouping on host/queue/username etc.)
MetricsTag(String, String, String) - 类 的构造器org.apache.hadoop.metrics2.MetricsTag
Construct the tag with name, description and value
MetricsTimeVaryingInt - org.apache.hadoop.metrics.util中的类
已过时。
MetricsTimeVaryingInt(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
已过时。
Constructor - create a new metric
MetricsTimeVaryingInt(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
已过时。
Constructor - create a new metric
MetricsTimeVaryingLong - org.apache.hadoop.metrics.util中的类
已过时。
MetricsTimeVaryingLong(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
已过时。
Constructor - create a new metric
MetricsTimeVaryingLong(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
已过时。
Constructor - create a new metric
MetricsTimeVaryingRate - org.apache.hadoop.metrics.util中的类
已过时。
in favor of MetricMutableGauge.
MetricsTimeVaryingRate(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
Constructor - create a new metric
MetricsTimeVaryingRate(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
Constructor - create a new metric
MetricsUtil - org.apache.hadoop.metrics中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricsVisitor - org.apache.hadoop.metrics2中的接口
A visitor interface for metrics
MetricValue - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
MetricValue(Number, boolean) - 类 的构造器org.apache.hadoop.metrics.spi.MetricValue
已过时。
Creates a new instance of MetricValue
midKey() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Get the key at approximately the middle of the file.
MigrationTool - org.apache.hadoop.fs.s3中的类
This class is a tool for migrating data from an older to a newer version of an S3 filesystem.
MigrationTool() - 类 的构造器org.apache.hadoop.fs.s3.MigrationTool
 
min() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
 
min() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
 
MIN_BLOCKS_FOR_WRITE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
MIN_BLOCKSIZE - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
The minimum supported blocksize == 1.
MINIMUM_FN - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
MinimumFN Selection.
minRecWrittenToEnableSkip_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
mkdirs(Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
 
mkdirs(FileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
create a directory with the provided permission The permission of the directory is set to be the provided permission as in setPermission, not permission&~umask
mkdirs(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Call FileSystem.mkdirs(Path, FsPermission) with default permission.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FileSystem
Make the given file and all non-existent parents into directories.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Make the given file and all non-existent parents into directories.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
not implemented.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
mkdirs(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Creates the specified directory hierarchy.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Make the given file and all non-existent parents into directories.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
mkdirs(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
mkdirs(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Create a directory (or hierarchy of directories) with the given name and permission.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
mkdirs(String, FsPermission) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Create a directory (or hierarchy of directories) with the given name and permission.
mkdirs(String, PermissionStatus) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Create all the necessary directories
mkdirs(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Create a directory (or hierarchy of directories) with the given name and permission.
mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
mkdirsWithExistsAndPermissionCheck(LocalFileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
Create the directory or check permissions if it already exists.
mkdirsWithExistsCheck(File) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
The semantics of mkdirsWithExistsCheck method is different from the mkdirs method provided in the Sun's java.io.File class in the following way: While creating the non-existent parent directories, this method checks for the existence of those directories if the mkdir fails at any point (since that directory might have just been created by some other process).
mNodeMap - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
 
mNodesFlattened - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
 
modifFmt - 类 中的静态变量org.apache.hadoop.fs.FsShell
 
ModificationTimeParam - org.apache.hadoop.hdfs.web.resources中的类
Modification time parameter.
ModificationTimeParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
Constructor.
ModificationTimeParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
Constructor.
Module() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
MODULE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
ModuleName() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
monitor() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
 
monitorAndPrintJob(JobConf, RunningJob) - 类 中的方法org.apache.hadoop.mapred.JobClient
Monitor a job and print status in real-time as progress is made and tasks fail.
moveCurrent(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
Move current to lastcheckpoint.tmp and recreate empty current.
moveFromLocalFile(Path[], Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src files is on the local disk.
moveFromLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src file is on the local disk.
moveFromLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
moveLastCheckpoint(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
Move lastcheckpoint.tmp to previous.checkpoint
moveToLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
The src file is under FS, and the dst is on the local disk.
moveToTrash(Path) - 类 中的方法org.apache.hadoop.fs.Trash
Move a file or directory to the current trash directory.
MR_CLIENTTRACE_FORMAT - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
MR_COMBINE_RECORDS_BEFORE_PROGRESS - 类 中的静态变量org.apache.hadoop.mapred.Task
 
MRAdmin - org.apache.hadoop.mapred.tools中的类
Administrative access to Hadoop Map-Reduce.
MRAdmin() - 类 的构造器org.apache.hadoop.mapred.tools.MRAdmin
 
MRAdmin(Configuration) - 类 的构造器org.apache.hadoop.mapred.tools.MRAdmin
 
msg(String) - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
MultiFileInputFormat<K,V> - org.apache.hadoop.mapred中的类
已过时。
MultiFileInputFormat() - 类 的构造器org.apache.hadoop.mapred.MultiFileInputFormat
已过时。
 
MultiFileSplit - org.apache.hadoop.mapred中的类
已过时。
Use CombineFileSplit instead
MultiFileSplit(JobConf, Path[], long[]) - 类 的构造器org.apache.hadoop.mapred.MultiFileSplit
已过时。
 
MultiFileWordCount - org.apache.hadoop.examples中的类
MultiFileWordCount is an example to demonstrate the usage of MultiFileInputFormat.
MultiFileWordCount() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount
 
MultiFileWordCount.MapClass - org.apache.hadoop.examples中的类
This Mapper is similar to the one in WordCount.MapClass.
MultiFileWordCount.MapClass() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.MapClass
 
MultiFileWordCount.MultiFileLineRecordReader - org.apache.hadoop.examples中的类
RecordReader is responsible from extracting records from the InputSplit.
MultiFileWordCount.MultiFileLineRecordReader(Configuration, MultiFileSplit) - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
 
MultiFileWordCount.MyInputFormat - org.apache.hadoop.examples中的类
To use MultiFileInputFormat, one should extend it, to return a (custom) RecordReader.
MultiFileWordCount.MyInputFormat() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.MyInputFormat
 
MultiFileWordCount.WordOffset - org.apache.hadoop.examples中的类
This record keeps <filename,offset> pairs.
MultiFileWordCount.WordOffset() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.WordOffset
 
MultiFilterRecordReader<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的类
Base class for Composite join returning values derived from multiple sources, but generally not tuples.
MultiFilterRecordReader(int, JobConf, int, Class<? extends WritableComparator>) - 类 的构造器org.apache.hadoop.mapred.join.MultiFilterRecordReader
 
MultiFilterRecordReader.MultiFilterDelegationIterator - org.apache.hadoop.mapred.join中的类
Proxy the JoinCollector, but include callback to emit.
MultiFilterRecordReader.MultiFilterDelegationIterator() - 类 的构造器org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
MultipleInputs - org.apache.hadoop.mapred.lib中的类
This class supports MapReduce jobs that have multiple input paths with a different InputFormat and Mapper for each path
MultipleInputs() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleInputs
 
MultipleInputs - org.apache.hadoop.mapreduce.lib.input中的类
This class supports MapReduce jobs that have multiple input paths with a different InputFormat and Mapper for each path
MultipleInputs() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.MultipleInputs
 
MultipleIOException - org.apache.hadoop.io中的异常错误
Encapsulate a list of IOException into an IOException
MultipleOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
This abstract class extends the FileOutputFormat, allowing to write the output data to different output files.
MultipleOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleOutputFormat
 
MultipleOutputs - org.apache.hadoop.mapred.lib中的类
The MultipleOutputs class simplifies writting to additional outputs other than the job default output via the OutputCollector passed to the map() and reduce() methods of the Mapper and Reducer implementations.
MultipleOutputs(JobConf) - 类 的构造器org.apache.hadoop.mapred.lib.MultipleOutputs
Creates and initializes multiple named outputs support, it should be instantiated in the Mapper/Reducer configure method.
MultipleOutputs<KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce.lib.output中的类
The MultipleOutputs class simplifies writing output data to multiple outputs Case one: writing to additional outputs other than the job default output.
MultipleOutputs(TaskInputOutputContext<?, ?, KEYOUT, VALUEOUT>) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Creates and initializes multiple outputs support, it should be instantiated in the Mapper/Reducer setup method.
MultipleSequenceFileOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
This class extends the MultipleOutputFormat, allowing to write the output data to different output files in sequence file output format.
MultipleSequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleSequenceFileOutputFormat
 
MultipleTextOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
This class extends the MultipleOutputFormat, allowing to write the output data to different output files in Text output format.
MultipleTextOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleTextOutputFormat
 
MultithreadedMapper<K1,V1,K2,V2> - org.apache.hadoop.mapreduce.lib.map中的类
Multithreaded implementation for @link org.apache.hadoop.mapreduce.Mapper.
MultithreadedMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
 
MultithreadedMapRunner<K1,V1,K2,V2> - org.apache.hadoop.mapred.lib中的类
Multithreaded implementation for @link org.apache.hadoop.mapred.MapRunnable.
MultithreadedMapRunner() - 类 的构造器org.apache.hadoop.mapred.lib.MultithreadedMapRunner
 
MURMUR_HASH - 类 中的静态变量org.apache.hadoop.util.hash.Hash
Constant to denote MurmurHash.
MurmurHash - org.apache.hadoop.util.hash中的类
This is a very fast, non-cryptographic hash suitable for general hash-based lookup.
MurmurHash() - 类 的构造器org.apache.hadoop.util.hash.MurmurHash
 
MySQLDataDrivenDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A RecordReader that reads records from a MySQL table via DataDrivenDBRecordReader
MySQLDataDrivenDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.MySQLDataDrivenDBRecordReader
 
MySQLDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A RecordReader that reads records from a MySQL table.
MySQLDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.MySQLDBRecordReader
 

N

N_GROUPS - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
N_ITERS - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
NAME - 类 中的静态变量org.apache.hadoop.fs.shell.Count
 
name - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
 
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.AccessTimeParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.BlockSizeParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.BufferSizeParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DelegationParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DestinationParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DoAsParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.GroupParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.HttpOpParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.LengthParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OffsetParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OverwriteParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OwnerParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.PermissionParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.RecursiveParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.RenewerParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ReplicationParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.UriFsPathParam
Parameter name.
NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.UserParam
Parameter name.
name() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
name - 类 中的变量org.apache.hadoop.metrics2.lib.MetricMutable
name of the metric
name() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
 
name() - 类 中的方法org.apache.hadoop.metrics2.Metric
Get the name of the metric
name() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
Get the record name of the metrics
name() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
Get the name of the tag
name - 类 中的变量org.apache.hadoop.net.NodeBase
 
name - 类 中的变量org.apache.hadoop.tools.rumen.JhCounter
 
name - 类 中的变量org.apache.hadoop.tools.rumen.JhCounterGroup
 
name - 类 中的变量org.apache.hadoop.tools.rumen.JhCounters
 
NAME_RULES - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Constant for the configuration property that indicates the Kerberos name rules for the Kerberos principals.
NameDistributionVisitor - org.apache.hadoop.hdfs.tools.offlineImageViewer中的类
File name distribution visitor.
NameDistributionVisitor(String, boolean) - 类 的构造器org.apache.hadoop.hdfs.tools.offlineImageViewer.NameDistributionVisitor
 
namenode - 类 中的变量org.apache.hadoop.hdfs.DFSClient
 
namenode - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
 
NameNode - org.apache.hadoop.hdfs.server.namenode中的类
NameNode serves as both directory namespace manager and "inode table" for the Hadoop DFS.
NameNode(Configuration) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.NameNode
Start NameNode.
nameNodeAddr - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.JspHelper
 
NamenodeFsck - org.apache.hadoop.hdfs.server.namenode中的类
This class provides rudimentary checking of DFS volumes for errors and sub-optimal conditions.
NameNodeInstrumentation - org.apache.hadoop.hdfs.server.namenode.metrics中的类
 
NameNodeMXBean - org.apache.hadoop.hdfs.server.namenode中的接口
This is the JMX management interface for namenode information
NamenodeProtocol - org.apache.hadoop.hdfs.server.protocol中的接口
Protocol that a secondary NameNode uses to communicate with the NameNode.
NamenodeWebHdfsMethods - org.apache.hadoop.hdfs.server.namenode.web.resources中的类
Web-hdfs NameNode implementation.
NamenodeWebHdfsMethods() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
 
namespaceID - 类 中的变量org.apache.hadoop.hdfs.server.common.StorageInfo
 
NamespaceInfo - org.apache.hadoop.hdfs.server.protocol中的类
NamespaceInfo is returned by the name-node in reply to a data-node handshake.
NamespaceInfo() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
 
NamespaceInfo(int, long, int) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
 
NativeCodeLoader - org.apache.hadoop.util中的类
A helper to load the native hadoop code i.e. libhadoop.so.
NativeCodeLoader() - 类 的构造器org.apache.hadoop.util.NativeCodeLoader
 
NativeIO - org.apache.hadoop.io.nativeio中的类
JNI wrappers for various native IO-related calls not available in Java.
NativeIO() - 类 的构造器org.apache.hadoop.io.nativeio.NativeIO
 
NativeIO.Stat - org.apache.hadoop.io.nativeio中的类
Result type of the fstat call
NativeIOException - org.apache.hadoop.io.nativeio中的异常错误
An exception generated by a call to the native IO code.
NativeIOException(String, Errno) - 异常错误 的构造器org.apache.hadoop.io.nativeio.NativeIOException
 
NativeS3FileSystem - org.apache.hadoop.fs.s3native中的类
A FileSystem for reading and writing files stored on Amazon S3.
NativeS3FileSystem() - 类 的构造器org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
NativeS3FileSystem(NativeFileSystemStore) - 类 的构造器org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
NATURAL_ORDER - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
 
nbHash - 类 中的变量org.apache.hadoop.util.bloom.Filter
The number of hash function to consider.
needChecksum() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Return true if there is a need for checksum verification
needKeyUpdate - 类 中的变量org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
 
needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
needsDictionary() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Returns true if a preset dictionary is needed for decompression.
needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Returns false.
needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Returns true if a preset dictionary is needed for decompression.
needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
needsInput() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
needsInput() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
needsInput() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Returns true if the input data buffer is empty and #setInput() should be called to provide more input.
needsInput() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Returns true if the input data buffer is empty and Decompressor.setInput(byte[], int, int) should be called to provide more input.
needsInput() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Returns true if the input data buffer is empty and #setInput() should be called to provide more input.
needsInput() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Returns true if the input data buffer is empty and SnappyDecompressor.setInput(byte[], int, int) should be called to provide more input.
needsInput() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Returns true if the input data buffer is empty and Decompressor.setInput(byte[], int, int) should be called to provide more input.
needsInput() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
needsInput() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
needsQuoting(byte[], int, int) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
Does the given string need to be quoted?
needsQuoting(String) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
Does the given string need to be quoted?
needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
 
needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
Check whether task needs a commit
needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
This method implements the new interface by calling the old method.
needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Did this task write any files in the work directory?
needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
Check whether task needs a commit
NEGOTIATE - 类 中的静态变量org.apache.hadoop.security.authentication.client.KerberosAuthenticator
HTTP header prefix used by the SPNEGO client/server endpoints during an authentication sequence.
NetgroupCache - org.apache.hadoop.security中的类
Class that caches the netgroups and inverts group-to-user map to user-to-group map
NetgroupCache() - 类 的构造器org.apache.hadoop.security.NetgroupCache
 
netgroupToUsersMap - 类 中的静态变量org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
netgroupToUsersMapUpdated - 类 中的静态变量org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
netlock - 类 中的变量org.apache.hadoop.net.NetworkTopology
 
NetUtils - org.apache.hadoop.net中的类
 
NetUtils() - 类 的构造器org.apache.hadoop.net.NetUtils
 
NetworkTopology - org.apache.hadoop.net中的类
The class represents a cluster of computer with a tree hierarchical network topology.
NetworkTopology() - 类 的构造器org.apache.hadoop.net.NetworkTopology
 
NetworkTopology.InvalidTopologyException - org.apache.hadoop.net中的异常错误
 
NetworkTopology.InvalidTopologyException(String) - 异常错误 的构造器org.apache.hadoop.net.NetworkTopology.InvalidTopologyException
 
NetworkTopologyWithNodeGroup - org.apache.hadoop.net中的类
The class extends NetworkTopology to represents a cluster of computer with a 4-layers hierarchical network topology.
NetworkTopologyWithNodeGroup() - 类 的构造器org.apache.hadoop.net.NetworkTopologyWithNodeGroup
 
newBlockReader(Socket, String, long, Token<BlockTokenIdentifier>, long, long, long, int) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
newBlockReader(Socket, String, long, Token<BlockTokenIdentifier>, long, long, long, int, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
Creates a new BlockReader for the given blockId.
newBlockReader(Socket, String, long, Token<BlockTokenIdentifier>, long, long, long, int, boolean, String) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
newCounter(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable integer counter
newCounter(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable long integer counter
newCounter(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Create a mutable integer counter
newCounter(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Create a mutable long integer counter
newCounterInt(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable integer counter with name only.
newCounterLong(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable long integer counter with a name Usually gets overridden.
newDataChecksum(int, int) - 类 中的静态方法org.apache.hadoop.util.DataChecksum
 
newDataChecksum(byte[], int) - 类 中的静态方法org.apache.hadoop.util.DataChecksum
Creates a DataChecksum from HEADER_LEN bytes from arr[offset].
newDataChecksum(DataInputStream) - 类 中的静态方法org.apache.hadoop.util.DataChecksum
This constructucts a DataChecksum by reading HEADER_LEN bytes from input stream in
newGauge(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable integer gauge
newGauge(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable long integer gauge
newGauge(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Create a mutable integer gauge
newGauge(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Create a mutable long integer gauge
newGaugeInt(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable integer gauge with name only.
newGaugeLong(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable long integer gauge with name only.
newInstance(Class<? extends Writable>, Configuration) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
Create a new instance of a class with a defined factory.
newInstance(Class<? extends Writable>) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
Create a new instance of a class with a defined factory.
newInstance() - 接口 中的方法org.apache.hadoop.io.WritableFactory
Return a new instance.
newInstance(Class<T>, Configuration) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
Create an object for the given class and initialize it from conf
newKey() - 类 中的方法org.apache.hadoop.io.WritableComparator
Construct a new WritableComparable instance.
newMetric(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a new mutable metric by name Usually overridden by app specific factory
newRecord(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Subclasses should override this if they subclass MetricsRecordImpl.
newRecord(String) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
newServerSocket(String, int, int) - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
 
newSocket() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Creates either NIO or regular depending on socketWriteTimeout.
newStat(String, String, String, String, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable stat metric
newStat(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
Create a mutable stat metric with name only.
newStat(String, String, String, String, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Create a mutable metric with stats
newStat(String, String, String, String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Create a mutable metric with stats
newStat(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Create a mutable metric with stats using the name only
newTaskDistributedCacheManager(JobID, Configuration) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
 
newToken(int) - 类 中的静态方法org.apache.hadoop.record.compiler.generated.Token
Returns a new Token object, by default.
next(DocumentID, LineDocTextAndOp) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
 
next() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
next(MultiFileWordCount.WordOffset, Text) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
 
next(Writable) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
Read and return the next value in the file.
next(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Read the next key/value pair in the map into key and val.
next(Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Read the next key in the file into key, skipping its value.
next(Writable, Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Read the next key/value pair in the file into key and val.
next(DataOutputBuffer) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
next(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Read the next key in the file, skipping its value.
next() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
Sets up the current key and value (for getKey and getValue)
next(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
Read the next key in a set into key.
next(X) - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
next(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
next(K, TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader
Emit the next set of key, value pairs as defined by the child RecordReaders and operation associated with this composite RR.
next(V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
next(K, V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
Reads the next key/value pair from the input for processing.
next(U) - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
next(T) - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
Assign next value to actual.
next(X) - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
 
next() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Read the next k,v pair into the head of this object; return true iff the RR and this are exhausted.
next(K, U) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Write key-value pair at the head of this stream to the objects provided; get next key-value pair from proxied RR.
next(Text, Text) - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
Read key/value pair in a line.
next(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
next(LongWritable, T) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
Reads the next key/value pair from the input for processing.
next(LongWritable, Text) - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
Read a line.
next() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
Sets up the current key and value (for getKey and getValue).
next(K, V) - 接口 中的方法org.apache.hadoop.mapred.RecordReader
Reads the next key/value pair from the input for processing.
next(BytesWritable, BytesWritable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Read raw bytes from a SequenceFile.
next(Text, Text) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
Read key/value pair in a line.
next(K, V) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
next(K) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
next() - 类 中的方法org.apache.hadoop.mapred.Task.CombineValuesIterator
 
next(LongWritable, T) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
next() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
 
next() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
 
next - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
A reference to the next regular (non-special) token from the input stream.
next(Text, Text) - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
Read a record.
next(Text, Text) - 类 中的方法org.apache.hadoop.streaming.StreamXmlRecordReader
 
nextEvent() - 类 中的方法org.apache.hadoop.tools.rumen.Hadoop20JHParser
 
nextEvent() - 接口 中的方法org.apache.hadoop.tools.rumen.JobHistoryParser
Get the next HistoryEvent
nextGenerationStamp(Block, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Get the next GenerationStamp to be associated with the specified block.
nextGenerationStamp(Block, boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
Get the next GenerationStamp to be associated with the specified block.
nextKey() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
Start processing next unique key.
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
Read the next key, value pair.
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
 
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
Read key/value pair in a line.
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
 
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
Read raw bytes from a SequenceFile.
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
Read key/value pair in a line.
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
 
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
 
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
Read the next key, value pair.
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
Advance to the next key/value pair.
nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
Advance to the next key, value pair, returning null if at end.
nextKeyValue() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
Implementation of RecordReader::nextValue().
nextRaw(DataOutputBuffer, SequenceFile.ValueBytes) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Read 'raw' records.
nextRawKey(DataOutputBuffer) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Read 'raw' keys.
nextRawKey() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
Fills up the rawKey object with the key returned by the Reader
nextRawValue(SequenceFile.ValueBytes) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Read 'raw' values.
nextRawValue(SequenceFile.ValueBytes) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
Fills up the passed rawValue with the value corresponding to the key read earlier
nextStamp() - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
First increments the counter and then returns the stamp
NLineInputFormat - org.apache.hadoop.mapred.lib中的类
NLineInputFormat which splits N lines of input as one split.
NLineInputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.NLineInputFormat
 
NLineInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
NLineInputFormat which splits N lines of input as one split.
NLineInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
 
NN_RECOVERY_LEASEHOLDER - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
 
nnAddr - 类 中的变量org.apache.hadoop.hdfs.HftpFileSystem
 
NO_DESCRIPTION - 类 中的静态变量org.apache.hadoop.metrics.util.MetricsBase
已过时。
 
NO_DESCRIPTION - 类 中的静态变量org.apache.hadoop.metrics2.Metric
 
NO_MOVE_BLOCK - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
 
NO_MOVE_PROGRESS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
 
Node - org.apache.hadoop.net中的接口
The interface defines a node in a network topology.
Node - org.apache.hadoop.tools.rumen中的类
Node represents a node in the cluster topology.
Node(String, int) - 类 的构造器org.apache.hadoop.tools.rumen.Node
 
NodeBase - org.apache.hadoop.net中的类
A base class that implements interface Node
NodeBase() - 类 的构造器org.apache.hadoop.net.NodeBase
Default constructor
NodeBase(String) - 类 的构造器org.apache.hadoop.net.NodeBase
Construct a node from its path
NodeBase(String, String) - 类 的构造器org.apache.hadoop.net.NodeBase
Construct a node from its name and its location
NodeBase(String, String, Node, int) - 类 的构造器org.apache.hadoop.net.NodeBase
Construct a node from its name and its location
NoEmitMetricsContext - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
NoEmitMetricsContext() - 类 的构造器org.apache.hadoop.metrics.spi.NoEmitMetricsContext
已过时。
Creates a new instance of NullContextWithUpdateThread
noInterruptsLock - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
If the delegation token update thread holds this lock, it will not get interrupted.
NONEXISTENT_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
 
normalize(String) - 类 中的静态方法org.apache.hadoop.net.NodeBase
Normalize a path
normalizeHostName(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Given a string representation of a host, return its ip address in textual presentation.
normalizeHostNames(Collection<String>) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Given a collection of string representation of hosts, return a list of corresponding IP addresses in the textual representation.
normalizeMemoryConfigValue(long) - 类 中的静态方法org.apache.hadoop.mapred.JobConf
Normalize the negative values in configuration
normalizePath(String) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
 
not() - 枚举 中的方法org.apache.hadoop.fs.permission.FsAction
NOT operation.
not() - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
not() - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
not() - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
not() - 类 中的方法org.apache.hadoop.util.bloom.Filter
Performs a logical NOT on this filter.
NOTIFY - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
notifyNamenodeReceivedBlock(Block, String) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
NotReplicatedYetException - org.apache.hadoop.hdfs.server.namenode中的异常错误
The file has not finished being written to enough datanodes yet.
NotReplicatedYetException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.NotReplicatedYetException
 
now() - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Util
Current system time.
NSQuotaExceededException - org.apache.hadoop.hdfs.protocol中的异常错误
 
NSQuotaExceededException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
 
NSQuotaExceededException(long, long) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
 
NULL - 接口 中的静态变量org.apache.hadoop.mapred.Reporter
A constant of Reporter type that does nothing.
NullContext - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
NullContext() - 类 的构造器org.apache.hadoop.metrics.spi.NullContext
已过时。
Creates a new instance of NullContext
NullContextWithUpdateThread - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
NullContextWithUpdateThread() - 类 的构造器org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
已过时。
Creates a new instance of NullContextWithUpdateThread
NullOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
Consume all outputs and put them in /dev/null.
NullOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.NullOutputFormat
 
NullOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
Consume all outputs and put them in /dev/null.
NullOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
 
NullWritable - org.apache.hadoop.io中的类
Singleton Writable with no data.
NullWritable.Comparator - org.apache.hadoop.io中的类
A Comparator "optimized" for NullWritable.
NullWritable.Comparator() - 类 的构造器org.apache.hadoop.io.NullWritable.Comparator
 
NUM_OF_VALUES_FIELD - 类 中的静态变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
NUM_OVERSHOOT_BYTES - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
numberOfBytesTillNextMarker(InputStream) - 类 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
Returns the number of bytes between the current stream position and the immediate next BZip2 block marker.
numberOfSecretKeys() - 类 中的方法org.apache.hadoop.security.Credentials
 
numberOfTokens() - 类 中的方法org.apache.hadoop.security.Credentials
 
numBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
 
numCorruptReplicas(Block) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
 
numDeadDataNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Number of dead data nodes
numDeadDataNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Number of dead data nodes
numLiveDataNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Number of live data nodes
numLiveDataNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
Number of Live data nodes
numOfRacks - 类 中的变量org.apache.hadoop.net.NetworkTopology
 
numOfValues - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
numReduceTasksSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
numSamples() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
 

O

O_APPEND - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_ASYNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_CREAT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_EXCL - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_FSYNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_NDELAY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_NOCTTY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_NONBLOCK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_RDONLY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_RDWR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_SYNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_TRUNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
O_WRONLY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
ObjectWritable - org.apache.hadoop.io中的类
A polymorphic Writable that writes an instance with it's class name.
ObjectWritable() - 类 的构造器org.apache.hadoop.io.ObjectWritable
 
ObjectWritable(Object) - 类 的构造器org.apache.hadoop.io.ObjectWritable
 
ObjectWritable(Class, Object) - 类 的构造器org.apache.hadoop.io.ObjectWritable
 
obtainCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
 
obtainCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
 
obtainDiagnosticInfo() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
 
obtainDiagnosticInfo() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
 
obtainFailedDueToAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
 
obtainHttpPort() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
 
obtainJobAcls() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainJobCleanupTask(TaskTrackerStatus, int, int, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a CleanupTask, if appropriate, to run on the given tasktracker
obtainJobConfpath() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainJobSetupTask(TaskTrackerStatus, int, int, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a SetupTask, if appropriate, to run on the given tasktracker
obtainMapCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainMapTasks() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainNewMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a MapTask, if appropriate, to run on the given tasktracker
obtainNewMapTaskCommon(TaskTrackerStatus, int, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a MapTask with locality level that smaller or equal than a given locality level to tasktracker.
obtainNewNodeLocalMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
obtainNewNodeOrRackLocalMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
obtainNewNonLocalMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
obtainNewReduceTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a ReduceTask, if appropriate, to run on the given tasktracker.
obtainOtherTasks() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainReduceCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainReduceTasks() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainStateString() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
 
obtainTaskAttempts() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
 
obtainTaskCleanupTask(TaskTrackerStatus, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
obtainTokensForNamenodes(Credentials, Path[], Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
Convenience method to obtain delegation tokens from namenodes corresponding to the paths passed.
obtainTotalCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
 
obtainTrackerName() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
 
offerService() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Main loop for the DataNode.
offerService() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Run forever
OfflineImageViewer - org.apache.hadoop.hdfs.tools.offlineImageViewer中的类
OfflineImageViewer to dump the contents of an Hadoop image file to XML or the console.
OfflineImageViewer(String, ImageVisitor, boolean) - 类 的构造器org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
 
offset() - 类 中的方法org.apache.hadoop.io.file.tfile.ByteArray
 
offset() - 接口 中的方法org.apache.hadoop.io.file.tfile.RawComparable
Get the offset of the first byte in the byte array.
offset - 类 中的变量org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
 
OffsetParam - org.apache.hadoop.hdfs.web.resources中的类
Offset parameter.
OffsetParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OffsetParam
Constructor.
OffsetParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OffsetParam
Constructor.
ONE - 接口 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
 
oneRotation - 类 中的静态变量org.apache.hadoop.examples.dancing.Pentomino
Is the piece fixed under rotation?
OneSidedPentomino - org.apache.hadoop.examples.dancing中的类
Of the "normal" 12 pentominos, 6 of them have distinct shapes when flipped.
OneSidedPentomino() - 类 的构造器org.apache.hadoop.examples.dancing.OneSidedPentomino
 
OneSidedPentomino(int, int) - 类 的构造器org.apache.hadoop.examples.dancing.OneSidedPentomino
 
OP_BLOCK_CHECKSUM - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_COPY_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_READ_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_READ_METADATA - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
已过时。
As of version 15, OP_READ_METADATA is no longer supported
OP_REPLACE_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_STATUS_CHECKSUM_OK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_STATUS_ERROR - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_STATUS_ERROR_ACCESS_TOKEN - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_STATUS_ERROR_CHECKSUM - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_STATUS_ERROR_EXISTS - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_STATUS_ERROR_INVALID - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_STATUS_SUCCESS - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
OP_WRITE_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
 
open(Path, int) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Opens an FSDataInputStream at the indicated Path.
open(Path, int) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataInputStream at the indicated Path.
open(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Opens an FSDataInputStream at the indicated Path.
open(Path, int) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Opens an FSDataInputStream at the indicated Path.
open(Path, int) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
open(Path, int) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
Returns a har input stream which fakes end of file.
open(Path, int) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
open(Path, int) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
open(Path, int) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
open(Path, int) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
open(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
open(String, int, boolean, FileSystem.Statistics) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Create an input stream that obtains a nodelist from the namenode, and then reads from all the right places.
open(Path, int) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
open(Path, int) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
open() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
Create empty edit log files.
open(Path, int) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
open(FileSystem, String, WritableComparator, Configuration) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
 
open(String, int, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
Wrapper around open(2)
open(InputStream) - 接口 中的方法org.apache.hadoop.io.serializer.Deserializer
Prepare the deserializer for reading.
open(OutputStream) - 接口 中的方法org.apache.hadoop.io.serializer.Serializer
Prepare the serializer for writing.
openConnection(String, String) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
Open an HTTP connection to the namenode to read file data and metadata.
openConnection(String, String) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
 
openConnection(URL, AuthenticatedURL.Token) - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
Returns an authenticated HttpURLConnection.
OpenEntity - org.apache.hadoop.hdfs.server.datanode.web.resources中的类
A response entity for a DFSDataInputStream.
OpenEntity.Writer - org.apache.hadoop.hdfs.server.datanode.web.resources中的类
A MessageBodyWriter for OpenEntity.
OpenEntity.Writer() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
 
openFile(FileSystem, Path, int, long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Override this method to specialize the type of FSDataInputStream returned.
openForRead(File, String) - 类 中的静态方法org.apache.hadoop.io.SecureIOUtils
Open the given File for read access, verifying the expected user constraints.
openInput(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
openInput(String, int) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
openInputStream() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
 
openSecureHttpConnection(URL) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Open a (if need be) secure connection to a URL in a secure environment that is using SPNEGO or KSSL to authenticate its URLs.
Operation - org.apache.hadoop.mapred中的枚举
Generic operation that maps to the dependent set of ACLs that drive the authorization of the operation.
OptionsParser - org.apache.hadoop.tools.distcp2中的类
The OptionsParser parses out the command-line options passed to DistCp, and interprets those specific to DistCp, to create an Options object.
OptionsParser() - 类 的构造器org.apache.hadoop.tools.distcp2.OptionsParser
 
or(FsAction) - 枚举 中的方法org.apache.hadoop.fs.permission.FsAction
OR operation.
or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Peforms a logical OR between this filter and a specified filter.
OracleDataDrivenDBInputFormat<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A InputFormat that reads input data from an SQL table in an Oracle db.
OracleDataDrivenDBInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBInputFormat
 
OracleDataDrivenDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A RecordReader that reads records from a Oracle table via DataDrivenDBRecordReader
OracleDataDrivenDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBRecordReader
 
OracleDateSplitter - org.apache.hadoop.mapreduce.lib.db中的类
Implement DBSplitter over date/time values returned by an Oracle db.
OracleDateSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDateSplitter
 
OracleDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
A RecordReader that reads records from an Oracle SQL table.
OracleDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
 
org.apache.hadoop - 程序包 org.apache.hadoop
 
org.apache.hadoop.classification - 程序包 org.apache.hadoop.classification
 
org.apache.hadoop.conf - 程序包 org.apache.hadoop.conf
Configuration of system parameters.
org.apache.hadoop.contrib.index.example - 程序包 org.apache.hadoop.contrib.index.example
 
org.apache.hadoop.contrib.index.lucene - 程序包 org.apache.hadoop.contrib.index.lucene
 
org.apache.hadoop.contrib.index.main - 程序包 org.apache.hadoop.contrib.index.main
 
org.apache.hadoop.contrib.index.mapred - 程序包 org.apache.hadoop.contrib.index.mapred
 
org.apache.hadoop.contrib.utils.join - 程序包 org.apache.hadoop.contrib.utils.join
 
org.apache.hadoop.examples - 程序包 org.apache.hadoop.examples
Hadoop example code.
org.apache.hadoop.examples.dancing - 程序包 org.apache.hadoop.examples.dancing
This package is a distributed implementation of Knuth's dancing links algorithm that can run under Hadoop.
org.apache.hadoop.examples.terasort - 程序包 org.apache.hadoop.examples.terasort
This package consists of 3 map/reduce applications for Hadoop to compete in the annual terabyte sort competition.
org.apache.hadoop.filecache - 程序包 org.apache.hadoop.filecache
 
org.apache.hadoop.fs - 程序包 org.apache.hadoop.fs
An abstract file system API.
org.apache.hadoop.fs.ftp - 程序包 org.apache.hadoop.fs.ftp
 
org.apache.hadoop.fs.kfs - 程序包 org.apache.hadoop.fs.kfs
A client for the Kosmos filesystem (KFS) Introduction This pages describes how to use Kosmos Filesystem ( KFS ) as a backing store with Hadoop.
org.apache.hadoop.fs.permission - 程序包 org.apache.hadoop.fs.permission
 
org.apache.hadoop.fs.s3 - 程序包 org.apache.hadoop.fs.s3
A distributed, block-based implementation of FileSystem that uses Amazon S3 as a backing store.
org.apache.hadoop.fs.s3native - 程序包 org.apache.hadoop.fs.s3native
A distributed implementation of FileSystem for reading and writing files on Amazon S3.
org.apache.hadoop.fs.shell - 程序包 org.apache.hadoop.fs.shell
 
org.apache.hadoop.hdfs - 程序包 org.apache.hadoop.hdfs
A distributed implementation of FileSystem.
org.apache.hadoop.hdfs.protocol - 程序包 org.apache.hadoop.hdfs.protocol
 
org.apache.hadoop.hdfs.security.token.block - 程序包 org.apache.hadoop.hdfs.security.token.block
 
org.apache.hadoop.hdfs.security.token.delegation - 程序包 org.apache.hadoop.hdfs.security.token.delegation
 
org.apache.hadoop.hdfs.server.balancer - 程序包 org.apache.hadoop.hdfs.server.balancer
 
org.apache.hadoop.hdfs.server.common - 程序包 org.apache.hadoop.hdfs.server.common
 
org.apache.hadoop.hdfs.server.datanode - 程序包 org.apache.hadoop.hdfs.server.datanode
 
org.apache.hadoop.hdfs.server.datanode.metrics - 程序包 org.apache.hadoop.hdfs.server.datanode.metrics
 
org.apache.hadoop.hdfs.server.datanode.web.resources - 程序包 org.apache.hadoop.hdfs.server.datanode.web.resources
 
org.apache.hadoop.hdfs.server.namenode - 程序包 org.apache.hadoop.hdfs.server.namenode
 
org.apache.hadoop.hdfs.server.namenode.metrics - 程序包 org.apache.hadoop.hdfs.server.namenode.metrics
 
org.apache.hadoop.hdfs.server.namenode.web.resources - 程序包 org.apache.hadoop.hdfs.server.namenode.web.resources
 
org.apache.hadoop.hdfs.server.protocol - 程序包 org.apache.hadoop.hdfs.server.protocol
 
org.apache.hadoop.hdfs.tools - 程序包 org.apache.hadoop.hdfs.tools
 
org.apache.hadoop.hdfs.tools.offlineImageViewer - 程序包 org.apache.hadoop.hdfs.tools.offlineImageViewer
 
org.apache.hadoop.hdfs.util - 程序包 org.apache.hadoop.hdfs.util
 
org.apache.hadoop.hdfs.web - 程序包 org.apache.hadoop.hdfs.web
 
org.apache.hadoop.hdfs.web.resources - 程序包 org.apache.hadoop.hdfs.web.resources
 
org.apache.hadoop.http - 程序包 org.apache.hadoop.http
 
org.apache.hadoop.http.lib - 程序包 org.apache.hadoop.http.lib
 
org.apache.hadoop.io - 程序包 org.apache.hadoop.io
Generic i/o code for use when reading and writing data to the network, to databases, and to files.
org.apache.hadoop.io.compress - 程序包 org.apache.hadoop.io.compress
 
org.apache.hadoop.io.compress.bzip2 - 程序包 org.apache.hadoop.io.compress.bzip2
 
org.apache.hadoop.io.compress.snappy - 程序包 org.apache.hadoop.io.compress.snappy
 
org.apache.hadoop.io.compress.zlib - 程序包 org.apache.hadoop.io.compress.zlib
 
org.apache.hadoop.io.file.tfile - 程序包 org.apache.hadoop.io.file.tfile
 
org.apache.hadoop.io.nativeio - 程序包 org.apache.hadoop.io.nativeio
 
org.apache.hadoop.io.retry - 程序包 org.apache.hadoop.io.retry
A mechanism for selectively retrying methods that throw exceptions under certain circumstances.
org.apache.hadoop.io.serializer - 程序包 org.apache.hadoop.io.serializer
This package provides a mechanism for using different serialization frameworks in Hadoop.
org.apache.hadoop.ipc - 程序包 org.apache.hadoop.ipc
Tools to help define network clients and servers.
org.apache.hadoop.ipc.metrics - 程序包 org.apache.hadoop.ipc.metrics
 
org.apache.hadoop.jmx - 程序包 org.apache.hadoop.jmx
This package provides access to JMX primarily through the JMXJsonServlet class.
org.apache.hadoop.log - 程序包 org.apache.hadoop.log
 
org.apache.hadoop.log.metrics - 程序包 org.apache.hadoop.log.metrics
 
org.apache.hadoop.mapred - 程序包 org.apache.hadoop.mapred
A software framework for easily writing applications which process vast amounts of data (multi-terabyte data-sets) parallelly on large clusters (thousands of nodes) built of commodity hardware in a reliable, fault-tolerant manner.
org.apache.hadoop.mapred.jobcontrol - 程序包 org.apache.hadoop.mapred.jobcontrol
Utilities for managing dependent jobs.
org.apache.hadoop.mapred.join - 程序包 org.apache.hadoop.mapred.join
Given a set of sorted datasets keyed with the same class and yielding equal partitions, it is possible to effect a join of those datasets prior to the map.
org.apache.hadoop.mapred.lib - 程序包 org.apache.hadoop.mapred.lib
Library of generally useful mappers, reducers, and partitioners.
org.apache.hadoop.mapred.lib.aggregate - 程序包 org.apache.hadoop.mapred.lib.aggregate
Classes for performing various counting and aggregations.
org.apache.hadoop.mapred.lib.db - 程序包 org.apache.hadoop.mapred.lib.db
org.apache.hadoop.mapred.lib.db Package This package contains a library to read records from a database as an input to a mapreduce job, and write the output records to the database.
org.apache.hadoop.mapred.pipes - 程序包 org.apache.hadoop.mapred.pipes
Hadoop Pipes allows C++ code to use Hadoop DFS and map/reduce.
org.apache.hadoop.mapred.tools - 程序包 org.apache.hadoop.mapred.tools
 
org.apache.hadoop.mapreduce - 程序包 org.apache.hadoop.mapreduce
 
org.apache.hadoop.mapreduce.lib.db - 程序包 org.apache.hadoop.mapreduce.lib.db
 
org.apache.hadoop.mapreduce.lib.fieldsel - 程序包 org.apache.hadoop.mapreduce.lib.fieldsel
 
org.apache.hadoop.mapreduce.lib.input - 程序包 org.apache.hadoop.mapreduce.lib.input
 
org.apache.hadoop.mapreduce.lib.jobcontrol - 程序包 org.apache.hadoop.mapreduce.lib.jobcontrol
 
org.apache.hadoop.mapreduce.lib.map - 程序包 org.apache.hadoop.mapreduce.lib.map
 
org.apache.hadoop.mapreduce.lib.output - 程序包 org.apache.hadoop.mapreduce.lib.output
 
org.apache.hadoop.mapreduce.lib.partition - 程序包 org.apache.hadoop.mapreduce.lib.partition
 
org.apache.hadoop.mapreduce.lib.reduce - 程序包 org.apache.hadoop.mapreduce.lib.reduce
 
org.apache.hadoop.mapreduce.security - 程序包 org.apache.hadoop.mapreduce.security
 
org.apache.hadoop.mapreduce.security.token - 程序包 org.apache.hadoop.mapreduce.security.token
 
org.apache.hadoop.mapreduce.security.token.delegation - 程序包 org.apache.hadoop.mapreduce.security.token.delegation
 
org.apache.hadoop.mapreduce.server.jobtracker - 程序包 org.apache.hadoop.mapreduce.server.jobtracker
 
org.apache.hadoop.mapreduce.server.tasktracker - 程序包 org.apache.hadoop.mapreduce.server.tasktracker
 
org.apache.hadoop.mapreduce.server.tasktracker.userlogs - 程序包 org.apache.hadoop.mapreduce.server.tasktracker.userlogs
 
org.apache.hadoop.mapreduce.split - 程序包 org.apache.hadoop.mapreduce.split
 
org.apache.hadoop.metrics - 程序包 org.apache.hadoop.metrics
Note, this package is deprecated in favor of org.apache.hadoop.metrics2 usage.
org.apache.hadoop.metrics.file - 程序包 org.apache.hadoop.metrics.file
Implementation of the metrics package that writes the metrics to a file.
org.apache.hadoop.metrics.ganglia - 程序包 org.apache.hadoop.metrics.ganglia
Implementation of the metrics package that sends metric data to Ganglia.
org.apache.hadoop.metrics.jvm - 程序包 org.apache.hadoop.metrics.jvm
 
org.apache.hadoop.metrics.spi - 程序包 org.apache.hadoop.metrics.spi
Note, this package is deprecated in favor of org.apache.hadoop.metrics2 usage.
org.apache.hadoop.metrics.util - 程序包 org.apache.hadoop.metrics.util
 
org.apache.hadoop.metrics2 - 程序包 org.apache.hadoop.metrics2
Metrics 2.0
org.apache.hadoop.metrics2.filter - 程序包 org.apache.hadoop.metrics2.filter
 
org.apache.hadoop.metrics2.impl - 程序包 org.apache.hadoop.metrics2.impl
 
org.apache.hadoop.metrics2.lib - 程序包 org.apache.hadoop.metrics2.lib
 
org.apache.hadoop.metrics2.sink - 程序包 org.apache.hadoop.metrics2.sink
 
org.apache.hadoop.metrics2.sink.ganglia - 程序包 org.apache.hadoop.metrics2.sink.ganglia
 
org.apache.hadoop.metrics2.source - 程序包 org.apache.hadoop.metrics2.source
 
org.apache.hadoop.metrics2.util - 程序包 org.apache.hadoop.metrics2.util
 
org.apache.hadoop.net - 程序包 org.apache.hadoop.net
Network-related classes.
org.apache.hadoop.record - 程序包 org.apache.hadoop.record
Hadoop record I/O contains classes and a record description language translator for simplifying serialization and deserialization of records in a language-neutral manner.
org.apache.hadoop.record.compiler - 程序包 org.apache.hadoop.record.compiler
This package contains classes needed for code generation from the hadoop record compiler.
org.apache.hadoop.record.compiler.ant - 程序包 org.apache.hadoop.record.compiler.ant
 
org.apache.hadoop.record.compiler.generated - 程序包 org.apache.hadoop.record.compiler.generated
This package contains code generated by JavaCC from the Hadoop record syntax file rcc.jj.
org.apache.hadoop.record.meta - 程序包 org.apache.hadoop.record.meta
 
org.apache.hadoop.security - 程序包 org.apache.hadoop.security
 
org.apache.hadoop.security.authentication.client - 程序包 org.apache.hadoop.security.authentication.client
 
org.apache.hadoop.security.authentication.server - 程序包 org.apache.hadoop.security.authentication.server
 
org.apache.hadoop.security.authentication.util - 程序包 org.apache.hadoop.security.authentication.util
 
org.apache.hadoop.security.authorize - 程序包 org.apache.hadoop.security.authorize
 
org.apache.hadoop.security.token - 程序包 org.apache.hadoop.security.token
 
org.apache.hadoop.security.token.delegation - 程序包 org.apache.hadoop.security.token.delegation
 
org.apache.hadoop.streaming - 程序包 org.apache.hadoop.streaming
Hadoop Streaming is a utility which allows users to create and run Map-Reduce jobs with any executables (e.g.
org.apache.hadoop.streaming.io - 程序包 org.apache.hadoop.streaming.io
 
org.apache.hadoop.tools - 程序包 org.apache.hadoop.tools
 
org.apache.hadoop.tools.distcp2 - 程序包 org.apache.hadoop.tools.distcp2
 
org.apache.hadoop.tools.distcp2.mapred - 程序包 org.apache.hadoop.tools.distcp2.mapred
 
org.apache.hadoop.tools.distcp2.mapred.lib - 程序包 org.apache.hadoop.tools.distcp2.mapred.lib
 
org.apache.hadoop.tools.distcp2.util - 程序包 org.apache.hadoop.tools.distcp2.util
 
org.apache.hadoop.tools.rumen - 程序包 org.apache.hadoop.tools.rumen
Rumen is a data extraction and analysis tool built for Apache Hadoop.
org.apache.hadoop.typedbytes - 程序包 org.apache.hadoop.typedbytes
Typed bytes are sequences of bytes in which the first byte is a type code.
org.apache.hadoop.util - 程序包 org.apache.hadoop.util
Common utilities.
org.apache.hadoop.util.bloom - 程序包 org.apache.hadoop.util.bloom
 
org.apache.hadoop.util.hash - 程序包 org.apache.hadoop.util.hash
 
originalURL - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
 
osType - 类 中的静态变量org.apache.hadoop.fs.HardLink
 
out - 类 中的变量org.apache.hadoop.io.compress.CompressionOutputStream
The output stream to be compressed.
out - 类 中的变量org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
 
out - 类 中的变量org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
 
OuterJoinRecordReader<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
Full outer join.
outerrThreadsThrowable - 类 中的变量org.apache.hadoop.streaming.PipeMapRed
 
output(T) - 类 中的方法org.apache.hadoop.tools.rumen.DefaultOutputter
 
output(T) - 接口 中的方法org.apache.hadoop.tools.rumen.Outputter
Output an object.
output_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
OUTPUT_FIELD_COUNT_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Number of fields in the Output table
OUTPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Field names in the Output table
OUTPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Field names in the Output table
OUTPUT_FORMAT - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
 
OUTPUT_FORMAT_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
OUTPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Output table name
OUTPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Output table name
OutputBuffer - org.apache.hadoop.io中的类
A reusable OutputStream implementation that writes to an in-memory buffer.
OutputBuffer() - 类 的构造器org.apache.hadoop.io.OutputBuffer
Constructs a new empty buffer.
OutputCollector<K,V> - org.apache.hadoop.mapred中的接口
Collects the <key, value> pairs output by Mappers and Reducers.
OutputCommitter - org.apache.hadoop.mapred中的类
OutputCommitter describes the commit of task output for a Map-Reduce job.
OutputCommitter() - 类 的构造器org.apache.hadoop.mapred.OutputCommitter
 
OutputCommitter - org.apache.hadoop.mapreduce中的类
OutputCommitter describes the commit of task output for a Map-Reduce job.
OutputCommitter() - 类 的构造器org.apache.hadoop.mapreduce.OutputCommitter
 
OutputFormat<K,V> - org.apache.hadoop.mapred中的接口
OutputFormat describes the output-specification for a Map-Reduce job.
outputFormat - 类 中的变量org.apache.hadoop.mapred.Task
 
OutputFormat<K,V> - org.apache.hadoop.mapreduce中的类
OutputFormat describes the output-specification for a Map-Reduce job.
OutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.OutputFormat
 
outputFormatSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
OutputLogFilter - org.apache.hadoop.mapred中的类
已过时。
OutputLogFilter() - 类 的构造器org.apache.hadoop.mapred.OutputLogFilter
已过时。
 
OutputReader<K,V> - org.apache.hadoop.streaming.io中的类
Abstract base for classes that read the client's output.
OutputReader() - 类 的构造器org.apache.hadoop.streaming.io.OutputReader
 
OutputRecord - org.apache.hadoop.metrics.spi中的类
已过时。
in favor of org.apache.hadoop.metrics2 usage.
outputSingleNode_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
Outputter<T> - org.apache.hadoop.tools.rumen中的接口
Interface to output a sequence of objects of type T.
OverrideRecordReader<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的类
Prefer the "rightmost" data source for this key.
overrideSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
OverwriteParam - org.apache.hadoop.hdfs.web.resources中的类
Overwrite parameter.
OverwriteParam(Boolean) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OverwriteParam
Constructor.
OverwriteParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OverwriteParam
Constructor.
OwnerParam - org.apache.hadoop.hdfs.web.resources中的类
Owner parameter.
OwnerParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OwnerParam
Constructor.

P

packageFiles_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
packageJobJar() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
packAttributes(EnumSet<DistCpOptions.FileAttribute>) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Pack file preservation attributes into a string, containing just the first character of each preservation attribute
PAGE_SIZE - 类 中的静态变量org.apache.hadoop.util.ProcfsBasedProcessTree
 
Param<T,D extends org.apache.hadoop.hdfs.web.resources.Param.Domain<T>> - org.apache.hadoop.hdfs.web.resources中的类
Base class of parameters.
ParamFilter - org.apache.hadoop.hdfs.web中的类
A filter to change parameter names to lower cases so that parameter names are considered as case insensitive.
ParamFilter() - 类 的构造器org.apache.hadoop.hdfs.web.ParamFilter
 
parent - 类 中的变量org.apache.hadoop.net.NodeBase
 
parse(String[], int) - 类 中的方法org.apache.hadoop.fs.shell.CommandFormat
Parse parameters starting from the given position
parse(String, int) - 类 中的静态方法org.apache.hadoop.metrics.spi.Util
Parses a space and/or comma separated sequence of server specifications of the form hostname or hostname:port.
parse(String, int) - 类 中的静态方法org.apache.hadoop.metrics2.util.Servers
Parses a space and/or comma separated sequence of server specifications of the form hostname or hostname:port.
parse(String) - 类 中的静态方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Parses a string into an authentication token.
parse(String[]) - 类 中的静态方法org.apache.hadoop.tools.distcp2.OptionsParser
The parse method parses the command-line options, and creates a corresponding Options object.
parseAndSetPeriod(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
If a period is set in the attribute passed in, override the default with it.
parseCommaSeparatedString(String) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
Parse the given string as a MultipleLinearRandomRetry object.
ParsedJob - org.apache.hadoop.tools.rumen中的类
This is a wrapper class around LoggedJob.
ParsedTask - org.apache.hadoop.tools.rumen中的类
This is a wrapper class around LoggedTask.
ParsedTaskAttempt - org.apache.hadoop.tools.rumen中的类
This is a wrapper class around LoggedTaskAttempt.
ParseException - org.apache.hadoop.record.compiler.generated中的异常错误
This exception is thrown when parse errors are encountered.
ParseException(Token, int[][], String[]) - 异常错误 的构造器org.apache.hadoop.record.compiler.generated.ParseException
This constructor is used by the method "generateParseException" in the generated parser.
ParseException() - 异常错误 的构造器org.apache.hadoop.record.compiler.generated.ParseException
The following constructors are for use by you for whatever purpose you can think of.
ParseException(String) - 异常错误 的构造器org.apache.hadoop.record.compiler.generated.ParseException
 
parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.fs.DF
 
parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.fs.DU
 
parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.util.Shell
Parse the execution result
parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
 
parseHashType(String) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
This utility method converts String representation of hash function name to a symbolic constant.
parseHistoryFromFS(String, JobHistory.Listener, FileSystem) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
Parses history file and invokes Listener.handle() for each line of history.
parseJobTasks(String, JobHistory.JobInfo, FileSystem) - 类 中的静态方法org.apache.hadoop.mapred.DefaultJobHistoryParser
Populates a JobInfo object from the job's history log file.
parseOutputKeyValueSpec(String, List<Integer>, List<Integer>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
Parser - org.apache.hadoop.mapred.join中的类
Very simple shift-reduce parser for join expressions.
Parser() - 类 的构造器org.apache.hadoop.mapred.join.Parser
 
Parser.Node - org.apache.hadoop.mapred.join中的类
 
Parser.Node(String) - 类 的构造器org.apache.hadoop.mapred.join.Parser.Node
 
Parser.NodeToken - org.apache.hadoop.mapred.join中的类
 
Parser.NumToken - org.apache.hadoop.mapred.join中的类
 
Parser.NumToken(double) - 类 的构造器org.apache.hadoop.mapred.join.Parser.NumToken
 
Parser.StrToken - org.apache.hadoop.mapred.join中的类
 
Parser.StrToken(Parser.TType, String) - 类 的构造器org.apache.hadoop.mapred.join.Parser.StrToken
 
Parser.Token - org.apache.hadoop.mapred.join中的类
Tagged-union type for tokens from the join expression.
Parser.TType - org.apache.hadoop.mapred.join中的枚举
 
parseTopologyTree() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
 
PART - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
 
Partitioner<K2,V2> - org.apache.hadoop.mapred中的接口
Partitions the key space.
Partitioner<KEY,VALUE> - org.apache.hadoop.mapreduce中的类
Partitions the key space.
Partitioner() - 类 的构造器org.apache.hadoop.mapreduce.Partitioner
 
PARTITIONER_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
PARTITIONER_OPTIONS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
 
PARTITIONER_PATH - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
 
partitionerSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
PASSWORD_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
Password to access the database
PASSWORD_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
Password to access the database
Path - org.apache.hadoop.fs中的类
Names a file or directory in a FileSystem.
Path(String, String) - 类 的构造器org.apache.hadoop.fs.Path
Resolve a child path against a parent path.
Path(Path, String) - 类 的构造器org.apache.hadoop.fs.Path
Resolve a child path against a parent path.
Path(String, Path) - 类 的构造器org.apache.hadoop.fs.Path
Resolve a child path against a parent path.
Path(Path, Path) - 类 的构造器org.apache.hadoop.fs.Path
Resolve a child path against a parent path.
Path(String) - 类 的构造器org.apache.hadoop.fs.Path
Construct a path from a String.
Path(String, String, String) - 类 的构造器org.apache.hadoop.fs.Path
Construct a Path from components.
Path(URI) - 类 的构造器org.apache.hadoop.fs.Path
Construct a path from a URI
PATH_PREFIX - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
Http URI: http://namenode:port/{PATH_PREFIX}/path/to/file
PATH_SEPARATOR - 类 中的静态变量org.apache.hadoop.net.NodeBase
 
PATH_SEPARATOR_STR - 类 中的静态变量org.apache.hadoop.net.NodeBase
 
PATH_SPEC - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.CancelDelegationTokenServlet
 
PATH_SPEC - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
 
PATH_SPEC - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
 
PathFilter - org.apache.hadoop.fs中的接口
 
PathFinder - org.apache.hadoop.streaming中的类
Maps a relative pathname to an absolute pathname using the PATH enviroment.
PathFinder() - 类 的构造器org.apache.hadoop.streaming.PathFinder
Construct a PathFinder object using the path from java.class.path
PathFinder(String) - 类 的构造器org.apache.hadoop.streaming.PathFinder
Construct a PathFinder object using the path from the specified system environment variable.
pathName - 异常错误 中的变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
pathToFile(Path) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
Convert a path to a File.
pathToFile(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Convert a path to a File.
pendingMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
pendingReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
Pentomino - org.apache.hadoop.examples.dancing中的类
 
Pentomino(int, int) - 类 的构造器org.apache.hadoop.examples.dancing.Pentomino
Create the model for a given pentomino set of pieces and board size.
Pentomino() - 类 的构造器org.apache.hadoop.examples.dancing.Pentomino
Create the object without initialization.
Pentomino.ColumnName - org.apache.hadoop.examples.dancing中的接口
This interface just is a marker for what types I expect to get back as column names.
Pentomino.Piece - org.apache.hadoop.examples.dancing中的类
Maintain information about a puzzle piece.
Pentomino.Piece(String, String, boolean, int[]) - 类 的构造器org.apache.hadoop.examples.dancing.Pentomino.Piece
 
Pentomino.SolutionCategory - org.apache.hadoop.examples.dancing中的枚举
 
percentageGraph(int, int) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
Generate the percentage graph and returns HTML representation string of the same.
percentageGraph(float, int) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
Generate the percentage graph and returns HTML representation string of the same.
PERIOD_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics.file.FileContext
已过时。
 
PermissionParam - org.apache.hadoop.hdfs.web.resources中的类
Permission parameter, use a Short to represent a FsPermission.
PermissionParam(FsPermission) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PermissionParam
Constructor.
PermissionParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PermissionParam
Constructor.
PermissionStatus - org.apache.hadoop.fs.permission中的类
Store permission related information.
PermissionStatus(String, String, FsPermission) - 类 的构造器org.apache.hadoop.fs.permission.PermissionStatus
Constructor
phase() - 类 中的方法org.apache.hadoop.util.Progress
Returns the current sub-node executing.
pickupReplicaSet(Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
Pick up replica node set for deleting replica as over-replicated.
pickupReplicaSet(Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
Pick up replica node set for deleting replica as over-replicated.
pieces - 类 中的变量org.apache.hadoop.examples.dancing.Pentomino
 
PiEstimator - org.apache.hadoop.examples中的类
A Map-reduce program to estimate the value of Pi using quasi-Monte Carlo method.
PiEstimator() - 类 的构造器org.apache.hadoop.examples.PiEstimator
 
PiEstimator.PiMapper - org.apache.hadoop.examples中的类
Mapper class for Pi estimation.
PiEstimator.PiMapper() - 类 的构造器org.apache.hadoop.examples.PiEstimator.PiMapper
 
PiEstimator.PiReducer - org.apache.hadoop.examples中的类
Reducer class for Pi estimation.
PiEstimator.PiReducer() - 类 的构造器org.apache.hadoop.examples.PiEstimator.PiReducer
 
ping(TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Child checking to see if we're alive.
ping(TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Periodically called by child to check if parent is still alive.
PipeCombiner - org.apache.hadoop.streaming中的类
 
PipeCombiner() - 类 的构造器org.apache.hadoop.streaming.PipeCombiner
 
PipeMapper - org.apache.hadoop.streaming中的类
A generic Mapper bridge.
PipeMapper() - 类 的构造器org.apache.hadoop.streaming.PipeMapper
 
PipeMapRed - org.apache.hadoop.streaming中的类
Shared functionality for PipeMapper, PipeReducer.
PipeMapRed() - 类 的构造器org.apache.hadoop.streaming.PipeMapRed
 
PipeMapRunner<K1,V1,K2,V2> - org.apache.hadoop.streaming中的类
 
PipeMapRunner() - 类 的构造器org.apache.hadoop.streaming.PipeMapRunner
 
PipeReducer - org.apache.hadoop.streaming中的类
A generic Reducer bridge.
PipeReducer() - 类 的构造器org.apache.hadoop.streaming.PipeReducer
 
PKT_HEADER_LEN - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
Header size for a packet
PlatformName - org.apache.hadoop.util中的类
A helper class for getting build-info of the java-vm.
PlatformName() - 类 的构造器org.apache.hadoop.util.PlatformName
 
POLICY_PROVIDER_CONFIG - 类 中的静态变量org.apache.hadoop.security.authorize.PolicyProvider
Configuration key for the PolicyProvider implementation.
PolicyProvider - org.apache.hadoop.security.authorize中的类
PolicyProvider provides the Service definitions to the security Policy in effect for Hadoop.
PolicyProvider() - 类 的构造器org.apache.hadoop.security.authorize.PolicyProvider
 
pop() - 类 中的方法org.apache.hadoop.util.PriorityQueue
Removes and returns the least element of the PriorityQueue in log(size) time.
PositionedReadable - org.apache.hadoop.fs中的接口
Stream that permits positional reading.
POSIX_FADV_DONTNEED - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
POSIX_FADV_NOREUSE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
POSIX_FADV_NORMAL - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
POSIX_FADV_RANDOM - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
POSIX_FADV_SEQUENTIAL - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
POSIX_FADV_WILLNEED - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
posixFadviseIfPossible(FileDescriptor, long, long, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
Call posix_fadvise on the given file descriptor.
post(InputStream, UserGroupInformation, DelegationParam, UriFsPathParam, PostOpParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
Handle HTTP POST request.
post(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, PostOpParam, ConcatSourcesParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP POST request.
postCheckIsLastCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
PostOpParam - org.apache.hadoop.hdfs.web.resources中的类
Http POST operation parameter.
PostOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PostOpParam
Constructor.
PostOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
Post operations.
postRoot(InputStream, UserGroupInformation, DelegationParam, PostOpParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
Handle HTTP POST request for the root for the root.
postRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, PostOpParam, ConcatSourcesParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP POST request for the root.
postStart() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
 
postStart() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
Called after start()
postStop() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
 
postStop() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
Called after stop()
Pre21JobHistoryConstants - org.apache.hadoop.tools.rumen中的类
 
Pre21JobHistoryConstants() - 类 的构造器org.apache.hadoop.tools.rumen.Pre21JobHistoryConstants
 
Pre21JobHistoryConstants.Values - org.apache.hadoop.tools.rumen中的枚举
This enum contains some of the values commonly used by history log events.
PRE_GENERATIONSTAMP_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
 
preCheckIsLastCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
The termination condition is to identify the last cycle that will empty the queue.
PREP - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
 
prepareAppendKey(int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
Obtain an output stream for writing a key into TFile.
prepareAppendValue(int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
Obtain an output stream for writing a value into TFile.
prepareMetaBlock(String, String) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
Obtain an output stream for creating a meta block.
prepareMetaBlock(String) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
Obtain an output stream for creating a meta block.
prependPathComponent(String) - 类 中的方法org.apache.hadoop.streaming.PathFinder
Appends the specified component to the path list
preserve(DistCpOptions.FileAttribute) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Add file attributes that need to be preserved.
preserve(FileSystem, Path, FileStatus, EnumSet<DistCpOptions.FileAttribute>) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Preserve attribute on file matching that of the file status being sent as argument.
preserveAttributes() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Returns an iterator with the list of file attributes to preserve
preserveInput(boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
Whether to delete the files when no longer needed
preStart() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
 
preStart() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
Called before start()
preStop() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
 
preStop() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
Called before stop()
prevCharIsCR - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
prevCharIsLF - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
PRINCIPAL - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Constant for the configuration property that indicates the kerberos principal.
printDetails(PrintStream) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
Print detailed information of this object.
printGenericCommandUsage(PrintStream) - 类 中的静态方法org.apache.hadoop.util.GenericOptionsParser
Print the usage message for generic command-line options supported.
printGenericCommandUsage(PrintStream) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
Prints generic command-line argurments and usage information.
printGotoForm(JspWriter, int, String, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
PrintJarMainClass - org.apache.hadoop.util中的类
A micro-application that prints the main class name out of a jar file.
PrintJarMainClass() - 类 的构造器org.apache.hadoop.util.PrintJarMainClass
 
printPathWithLinks(String, JspWriter, int, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
printRules() - 类 中的静态方法org.apache.hadoop.security.KerberosName
 
printStackTrace() - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
 
printStackTrace(PrintStream) - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
 
printStackTrace(PrintWriter) - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
 
printStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
 
printThreadInfo(PrintWriter, String) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
Print all of the thread's information and stack traces.
PriorityQueue<T> - org.apache.hadoop.util中的类
A PriorityQueue maintains a partial ordering of its elements such that the least element can always be found in constant time.
PriorityQueue() - 类 的构造器org.apache.hadoop.util.PriorityQueue
 
probablyHasKey(WritableComparable) - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
Checks if this MapFile has the indicated key.
process(IntermediateForm) - 类 中的方法org.apache.hadoop.contrib.index.lucene.ShardWriter
Process an intermediate form by carrying out, on the Lucene instance of the shard, the deletes and the inserts (a ram index) in the form.
process(DocumentAndOp, Analyzer) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
This method is used by the index update mapper and process a document operation into the current intermediate form.
process(IntermediateForm) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
This method is used by the index update combiner and process an intermediate form into the current intermediate form.
process(HistoryEvent) - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
Process one HistoryEvent
process(Properties) - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
Process a collection of JobConf Properties.
process(HistoryEvent) - 类 中的方法org.apache.hadoop.tools.rumen.TopologyBuilder
Process one HistoryEvent
process(Properties) - 类 中的方法org.apache.hadoop.tools.rumen.TopologyBuilder
Process a collection of JobConf Properties.
processBlocksBeingWrittenReport(DatanodeID, BlockListAsLongs) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
It will update the targets for INodeFileUnderConstruction
processDeleteOnExit() - 类 中的方法org.apache.hadoop.fs.FileSystem
Delete all files that were marked as delete-on-exit.
processEvent(UserLogEvent) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
 
processReport(DatanodeID, BlockListAsLongs) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
The given node is reporting all its blocks.
ProcessTree - org.apache.hadoop.util中的类
Process tree related operations
ProcessTree() - 类 的构造器org.apache.hadoop.util.ProcessTree
 
ProcessTree.Signal - org.apache.hadoop.util中的枚举
The constants for the signals.
processUpgradeCommand(UpgradeCommand) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
processUpgradeCommand(UpgradeCommand) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
Process an upgrade command.
processUpgradeCommand(UpgradeCommand) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
This is a very general way to send a command to the name-node during distributed upgrade process.
ProcfsBasedProcessTree - org.apache.hadoop.util中的类
A Proc file-system based ProcessTree.
ProcfsBasedProcessTree(String) - 类 的构造器org.apache.hadoop.util.ProcfsBasedProcessTree
 
ProcfsBasedProcessTree(String, boolean) - 类 的构造器org.apache.hadoop.util.ProcfsBasedProcessTree
 
ProcfsBasedProcessTree(String, String) - 类 的构造器org.apache.hadoop.util.ProcfsBasedProcessTree
 
ProgramDriver - org.apache.hadoop.util中的类
A driver that is used to run programs added to it
ProgramDriver() - 类 的构造器org.apache.hadoop.util.ProgramDriver
 
progress - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
progress() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
progress() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
 
progress - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
progress() - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
 
progress() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
Report progress.
progress() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
 
Progress - org.apache.hadoop.util中的类
Utility to assist with generation of progress reports.
Progress() - 类 的构造器org.apache.hadoop.util.Progress
Creates a new root node.
progress() - 接口 中的方法org.apache.hadoop.util.Progressable
Report progress to the Hadoop framework.
PROGRESS_INTERVAL - 类 中的静态变量org.apache.hadoop.mapred.Task
The number of milliseconds between progress reports.
Progressable - org.apache.hadoop.util中的接口
A facility for reporting progress.
ProxyUsers - org.apache.hadoop.security.authorize中的类
 
ProxyUsers() - 类 的构造器org.apache.hadoop.security.authorize.ProxyUsers
 
PseudoAuthenticationHandler - org.apache.hadoop.security.authentication.server中的类
The PseudoAuthenticationHandler provides a pseudo authentication mechanism that accepts the user name specified as a query string parameter.
PseudoAuthenticationHandler() - 类 的构造器org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
 
PseudoAuthenticator - org.apache.hadoop.security.authentication.client中的类
The PseudoAuthenticator implementation provides an authentication equivalent to Hadoop's Simple authentication, it trusts the value of the 'user.name' Java System property.
PseudoAuthenticator() - 类 的构造器org.apache.hadoop.security.authentication.client.PseudoAuthenticator
 
pseudoSortByDistance(Node, Node[]) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Sort nodes array by their distances to reader It linearly scans the array, if a local node is found, swap it with the first element of the array.
pseudoSortByDistance(Node, Node[]) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
Sort nodes array by their distances to reader It linearly scans the array, if a local node is found, swap it with the first element of the array.
publish(Configuration, String, T) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Utility to publish a value to a configuration.
publishMetricsNow() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
Requests an immediate publish of all metrics from sources to sinks.
publishMetricsNow() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
publishMetricsNow() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
Requests an immediate publish of all metrics from sources to sinks.
PureJavaCrc32 - org.apache.hadoop.util中的类
A pure-java implementation of the CRC32 checksum that uses the same polynomial as the built-in native CRC32.
PureJavaCrc32() - 类 的构造器org.apache.hadoop.util.PureJavaCrc32
 
purge() - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
Delete everything.
purgeCache() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Clear the entire contents of the cache and delete the backing files.
pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
已过时。
 
pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
已过时。
Push the metric to the mr.
pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
已过时。
Push the metric to the mr.
pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
已过时。
Push the delta metrics to the mr.
pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
已过时。
Push the delta metrics to the mr.
pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
Push the delta metrics to the mr.
put(InputStream, UserGroupInformation, DelegationParam, UriFsPathParam, PutOpParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
Handle HTTP PUT request.
put(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, PutOpParam, DestinationParam, OwnerParam, GroupParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam, ModificationTimeParam, AccessTimeParam, TokenArgumentParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP PUT request.
put(E) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
Add/replace an element.
put(E) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
 
put(E) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
put(Writable, Writable) - 类 中的方法org.apache.hadoop.io.MapWritable
put(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
put(T) - 类 中的方法org.apache.hadoop.util.PriorityQueue
Adds an Object to a PriorityQueue in log(size) time.
putAll(Map<? extends Writable, ? extends Writable>) - 类 中的方法org.apache.hadoop.io.MapWritable
putAll(Map<? extends WritableComparable, ? extends Writable>) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
putCounters(Map<String, Long>) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
Set the task counters
putCounters(Map<String, Long>) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
Set the task attempt counters
putDiagnosticInfo(String) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
Set the task diagnostic-info
putDiagnosticInfo(String) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
Set the task attempt diagnostic-info
putFailedDueToAttemptId(String) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
Set the failed-due-to-attemptId info of this task.
putMetrics(MetricsRecord) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSink
Put a metrics record in the sink
putMetrics(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics2.sink.FileSink
 
putMetrics(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
 
PutOpParam - org.apache.hadoop.hdfs.web.resources中的类
Http POST operation parameter.
PutOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PutOpParam
Constructor.
PutOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
Put operations.
putRoot(InputStream, UserGroupInformation, DelegationParam, PutOpParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
Handle HTTP PUT request for the root.
putRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, PutOpParam, DestinationParam, OwnerParam, GroupParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam, ModificationTimeParam, AccessTimeParam, TokenArgumentParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
Handle HTTP PUT request for the root.

Q

qACLNeeded - 枚举 中的变量org.apache.hadoop.mapred.Operation
 
QSORT_STACK_SIZE - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
quarterDigest() - 类 中的方法org.apache.hadoop.io.MD5Hash
Return a 32-bit digest of the MD5.
QueueAclsInfo - org.apache.hadoop.mapred中的类
Class to encapsulate Queue ACLs for a particular user.
QueueAclsInfo() - 类 的构造器org.apache.hadoop.mapred.QueueAclsInfo
Default constructor for QueueAclsInfo.
QueueAclsInfo(String, String[]) - 类 的构造器org.apache.hadoop.mapred.QueueAclsInfo
Construct a new QueueAclsInfo object using the queue name and the queue operations array
QueueProcessingStatistics - org.apache.hadoop.util中的类
Hadoop has several work queues, such as FSNamesystem.neededReplications With a properly throttled queue, a worker thread cycles repeatedly, doing a chunk of work each cycle then resting a bit, until the queue is empty.
QueueProcessingStatistics(String, String, Log) - 类 的构造器org.apache.hadoop.util.QueueProcessingStatistics
 
QueueProcessingStatistics.State - org.apache.hadoop.util中的枚举
This enum provides the "states" of a state machine for QueueProcessingStatistics.
QuickSort - org.apache.hadoop.util中的类
An implementation of the core algorithm of QuickSort.
QuickSort() - 类 的构造器org.apache.hadoop.util.QuickSort
 
quit() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
Log a message and quit
quota - 异常错误 中的变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
QUOTA_DONT_SET - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
QUOTA_RESET - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
QuotaExceededException - org.apache.hadoop.hdfs.protocol中的异常错误
This exception is thrown when modification to HDFS results in violation of a directory quota.
QuotaExceededException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
QuotaExceededException(long, long) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
quoteHtmlChars(OutputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
Quote all of the active HTML characters in the given string as they are added to the buffer.
quoteHtmlChars(String) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
Quote the given item to make it html-safe.
quoteOutputStream(OutputStream) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
Return an output stream that quotes all of the output.

R

r - 类 中的静态变量org.apache.hadoop.net.NetworkTopology
 
RackNode - org.apache.hadoop.tools.rumen中的类
RackNode represents a rack node in the cluster topology.
RackNode(String, int) - 类 的构造器org.apache.hadoop.tools.rumen.RackNode
 
rackNodes - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
 
RAMDirectoryUtil - org.apache.hadoop.contrib.index.lucene中的类
A utility class which writes an index in a ram dir into a DataOutput and read from a DataInput an index into a ram dir.
RAMDirectoryUtil() - 类 的构造器org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
 
rand - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCp
 
RANDOM - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
Random selection.
randomDataNode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
已过时。
randomNode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
RandomSeedGenerator - org.apache.hadoop.tools.rumen中的类
The purpose of this class is to generate new random seeds from a master seed.
RandomSeedGenerator() - 类 的构造器org.apache.hadoop.tools.rumen.RandomSeedGenerator
 
RandomTextWriter - org.apache.hadoop.examples中的类
This program uses map/reduce to just run a distributed job where there is no interaction between the tasks and each task writes a large unsorted random sequence of words.
RandomTextWriter() - 类 的构造器org.apache.hadoop.examples.RandomTextWriter
 
randomValue() - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
 
RandomWriter - org.apache.hadoop.examples中的类
This program uses map/reduce to just run a distributed job where there is no interaction between the tasks and each task write a large unsorted random binary sequence file of BytesWritable.
RandomWriter() - 类 的构造器org.apache.hadoop.examples.RandomWriter
 
RATIO - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
Ratio Selection.
RAW_BYTES_ID - 类 中的静态变量org.apache.hadoop.streaming.io.IdentifierResolver
 
RawBytesInputWriter - org.apache.hadoop.streaming.io中的类
InputWriter that writes the client's input as raw bytes.
RawBytesInputWriter() - 类 的构造器org.apache.hadoop.streaming.io.RawBytesInputWriter
 
RawBytesOutputReader - org.apache.hadoop.streaming.io中的类
OutputReader that reads the client's output as raw bytes.
RawBytesOutputReader() - 类 的构造器org.apache.hadoop.streaming.io.RawBytesOutputReader
 
RawComparable - org.apache.hadoop.io.file.tfile中的接口
Interface for objects that can be compared through RawComparator.
RawComparator<T> - org.apache.hadoop.io中的接口
A Comparator that operates directly on byte representations of objects.
RawHistoryFileServlet - org.apache.hadoop.mapred中的类
 
RawHistoryFileServlet() - 类 的构造器org.apache.hadoop.mapred.RawHistoryFileServlet
 
RawKeyValueIterator - org.apache.hadoop.mapred中的接口
RawKeyValueIterator is an iterator used to iterate over the raw keys and values during sort/merge of intermediate data.
RawLocalFileSystem - org.apache.hadoop.fs中的类
Implement the FileSystem API for the raw local filesystem.
RawLocalFileSystem() - 类 的构造器org.apache.hadoop.fs.RawLocalFileSystem
 
rawMapping - 类 中的变量org.apache.hadoop.net.CachedDNSToSwitchMapping
 
rawWriter - 类 中的变量org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
 
RBRACE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
Rcc - org.apache.hadoop.record.compiler.generated中的类
 
Rcc(InputStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
 
Rcc(InputStream, String) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
 
Rcc(Reader) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
 
Rcc(RccTokenManager) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
 
RccConstants - org.apache.hadoop.record.compiler.generated中的接口
 
RccTask - org.apache.hadoop.record.compiler.ant中的类
Hadoop record compiler ant Task This task takes the given record definition files and compiles them into java or c++ files.
RccTask() - 类 的构造器org.apache.hadoop.record.compiler.ant.RccTask
Creates a new instance of RccTask
RccTokenManager - org.apache.hadoop.record.compiler.generated中的类
 
RccTokenManager(SimpleCharStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.RccTokenManager
 
RccTokenManager(SimpleCharStream, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.RccTokenManager
 
read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
 
read() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Read one checksum-verified byte
read(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Read checksum verified bytes from this byte-input stream into the specified byte array, starting at the given offset.
read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputStream
 
read() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
read(DataInput) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
Create and initialize a FsPermission from DataInput.
read(DataInput) - 类 中的静态方法org.apache.hadoop.fs.permission.PermissionStatus
Create and initialize a PermissionStatus from DataInput.
read(long, byte[], int, int) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
Read upto the specified number of bytes, from a given position within a file, and return the number of bytes read.
read(byte[], int, int) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
 
read() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
 
read() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
Read the entire buffer.
read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
Read bytes starting from the specified position.
read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
read() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
read() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Read version file.
read(File) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
 
read() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
In CONTINOUS reading mode, this read method starts from the start of the compressed stream and end at the end of file by emitting un-compressed data.
read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
Read bytes from the stream.
read() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
read(DataInput) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
Constructs, reads and returns an instance.
read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.JobID
已过时。
read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
已过时。
read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
已过时。
read() - 类 中的方法org.apache.hadoop.net.SocketInputStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.net.SocketInputStream
 
read(ByteBuffer) - 类 中的方法org.apache.hadoop.net.SocketInputStream
 
read() - 类 中的方法org.apache.hadoop.security.SaslInputStream
Reads the next byte of data from this input stream.
read(byte[]) - 类 中的方法org.apache.hadoop.security.SaslInputStream
Reads up to b.length bytes of data from this input stream into an array of bytes.
read(byte[], int, int) - 类 中的方法org.apache.hadoop.security.SaslInputStream
Reads up to len bytes of data from this input stream into an array of bytes.
read(DataInput) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
Read from in
read() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
 
read(byte[]) - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
 
read() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
 
read(byte[], int, int) - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
 
read() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads a typed bytes sequence and converts it to a Java object.
read() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
READ_TIMEOUT - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
 
READ_TIMEOUT_EXTENSION - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
 
ReadaheadPool - org.apache.hadoop.io中的类
Manages a pool of threads which can issue readahead requests on file descriptors.
ReadaheadPool.ReadaheadRequest - org.apache.hadoop.io中的接口
An outstanding readahead request that has been submitted to the pool.
readaheadStream(String, FileDescriptor, long, long, long, ReadaheadPool.ReadaheadRequest) - 类 中的方法org.apache.hadoop.io.ReadaheadPool
Issue a request to readahead on the given file descriptor.
readAll(byte[], int, int) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
 
readAll(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
kind of like readFully().
readAndProcess() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
 
readArray(ArrayWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readArray() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readBool(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readBool(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readBool(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read a boolean from serialized record.
readBool(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readBool() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the boolean following a Type.BOOL code.
readBool(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readBoolean(BooleanWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readBoolean() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readBuffer(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readBuffer(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readBuffer(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read byte array from serialized record.
readBuffer(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readBuffer(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readByte(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readByte(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readByte(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read a byte from serialized record.
readByte(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the byte following a Type.BYTE code.
readByte(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readByte(ByteWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readBytes(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
readBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the bytes following a Type.BYTES code.
readBytes(BytesWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readChar() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
readChunk(long, byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Reads in next checksum chunk data into buf at offset and checksum into checksum.
readChunk(long, byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
readCompressedByteArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
readCompressedString(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
readCompressedStringArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
readDouble(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Parse a double from a byte array.
readDouble(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readDouble(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readDouble(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read a double-precision number from serialized record.
readDouble(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
Parse a double from a byte array.
readDouble(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the double following a Type.DOUBLE code.
readDouble(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readDouble(DoubleWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readEnum(DataInput, Class<T>) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Read an Enum value from DataInput, Enums are read and written using String values.
readFields(DataInput) - 类 中的方法org.apache.hadoop.conf.Configuration
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
Read the two integers.
readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.BlockLocation
Implement readFields of Writable
readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.ContentSummary
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.FileStatus
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
Writable interface
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
Reads the bandwidth payload from the Balancer Bandwidth Command packet.
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
deserialization method
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
deserialization method
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ArrayWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.BooleanWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.BytesWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ByteWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.DoubleWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.FloatWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.GenericWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.IntWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.LongWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.MapWritable
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.MD5Hash
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.NullWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ObjectWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.Text
deserialize
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VersionedWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VIntWritable
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VLongWritable
 
readFields(DataInput) - 接口 中的方法org.apache.hadoop.io.Writable
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Counters
Read a set of groups.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.FileSplit
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobProfile
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JvmTask
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
 
readFields(ResultSet) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
 
readFields(ResultSet) - 接口 中的方法org.apache.hadoop.mapred.lib.db.DBWritable
Reads the fields of the object from the ResultSet.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Task
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskReport
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.Counter
Read the binary representation of the counter
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.Counters
Read a set of groups.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.ID
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.JobID
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
 
readFields(ResultSet) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
 
readFields(ResultSet) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBWritable
Reads the fields of the object from the ResultSet.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.record.Record
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.security.Credentials
Loads all the keys
readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.Token
Deserialize the fields of this object from in.
readFields(DataInput) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.Filter
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.Key
 
readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
 
readFieldsCompressed(DataInput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
Subclasses implement this instead of CompressedWritable.readFields(DataInput).
readFileChannelFully(FileChannel, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Reads len bytes in a loop using the channel of the stream
readFloat(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Parse a float from a byte array.
readFloat(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readFloat(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readFloat(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read a single-precision float from serialized record.
readFloat(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
Parse a float from a byte array.
readFloat(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the float following a Type.FLOAT code.
readFloat(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readFloat(FloatWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
 
readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
 
readFully(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.fs.FSInputChecker
A utility function that tries to read up to len bytes from stm
readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputStream
 
readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.FSInputStream
 
readFully(long, byte[], int, int) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
Read the specified number of bytes, from a given position within a file.
readFully(long, byte[]) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
Read number of bytes equalt to the length of the buffer, from a given position within a file.
readFully(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Reads len bytes in a loop.
readHeader(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
This reads all the fields till the beginning of checksum.
readInt(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Parse an integer from a byte array.
readInt(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readInt(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readInt(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read an integer from serialized record.
readInt(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the integer following a Type.INT code.
readInt(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readInt(IntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
Read the next key/value pair outputted by the client.
readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
 
readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
 
readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
 
readLine(LineReader, Text) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
Read a utf8 encoded line from a data input stream.
readLine(LineReader, Text) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
readLine(Text, int, int) - 类 中的方法org.apache.hadoop.util.LineReader
Read one line from the InputStream into the given Text.
readLine(Text, int) - 类 中的方法org.apache.hadoop.util.LineReader
Read from the InputStream into the given Text.
readLine(Text) - 类 中的方法org.apache.hadoop.util.LineReader
Read from the InputStream into the given Text.
readList() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the list following a Type.LIST code.
readLong(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Parse a long from a byte array.
readLong(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readLong(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readLong(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read a long integer from serialized record.
readLong(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the long following a Type.LONG code.
readLong(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readLong(LongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the map following a Type.MAP code.
readMap(MapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readMapHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the header following a Type.MAP code.
readObject(DataInput, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
Read a Writable, String, primitive type, or an array of the preceding.
readObject(DataInput, ObjectWritable, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
Read a Writable, String, primitive type, or an array of the preceding.
readRAMFiles(DataInput, RAMDirectory) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
Read a number of files from a data input to a ram directory.
readRaw() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads a typed bytes sequence.
readRawBool() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.BOOL code.
readRawByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw byte following a Type.BYTE code.
readRawBytes(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a custom code.
readRawBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.BYTES code.
readRawDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.DOUBLE code.
readRawFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.FLOAT code.
readRawInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.INT code.
readRawList() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.LIST code.
readRawLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.LONG code.
readRawMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.MAP code.
readRawString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.STRING code.
readRawVector() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the raw bytes following a Type.VECTOR code.
readSortedMap(SortedMapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readSortedMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readSplitMetaInfo(JobID, FileSystem, Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.split.SplitMetaInfoReader
 
readString(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSImage
 
readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Read a String as a VInt n, followed by n Bytes in Text format.
readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.Text
Read a UTF8 encoded string from in
readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.UTF8
已过时。
Read a UTF-8 encoded string.
readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
readString(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
readString(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
readString(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Read a UTF-8 encoded string from serialized record.
readString(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
readString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the string following a Type.STRING code.
readString(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
readStringArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
readText(Text) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readText() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readTokenStorageFile(Path, Configuration) - 类 中的静态方法org.apache.hadoop.security.Credentials
Convenience method for reading a token storage file, and loading the Tokens therein in the passed UGI
readTokenStorageStream(DataInputStream) - 类 中的方法org.apache.hadoop.security.Credentials
Convenience method for reading a token storage file directly from a datainputstream
readType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads a type byte and returns the corresponding Type.
readType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readUnsignedShort(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Parse an unsigned short from a byte array.
readVector() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the vector following a Type.VECTOR code.
readVectorHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Reads the header following a Type.VECTOR code.
readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Decoding the variable-length integer.
readVInt(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Reads a zero-compressed encoded integer from a byte array and returns it.
readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Reads a zero-compressed encoded integer from input stream and returns it.
readVInt(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
Reads a zero-compressed encoded integer from a byte array and returns it.
readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.record.Utils
Reads a zero-compressed encoded integer from a stream and returns it.
readVInt(VIntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readVInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Decoding the variable-length integer.
readVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
Reads a zero-compressed encoded long from a byte array and returns it.
readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Reads a zero-compressed encoded long from input stream and returns it.
readVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
Reads a zero-compressed encoded long from a byte array and returns it.
readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.record.Utils
Reads a zero-compressed encoded long from a stream and return it.
readVLong(VLongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readVLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readWritable(Writable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
readWritable() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
READY - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
 
Record() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
Record - org.apache.hadoop.record中的类
Abstract class that is extended by generated classes.
Record() - 类 的构造器org.apache.hadoop.record.Record
 
RECORD_INPUT - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
 
RECORD_OUTPUT - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
 
RECORD_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
RecordComparator - org.apache.hadoop.record中的类
A raw record comparator base class
RecordComparator(Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.record.RecordComparator
Construct a raw Record comparison implementation.
RecordInput - org.apache.hadoop.record中的接口
Interface that all the Deserializers have to implement.
RecordList() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
RecordOutput - org.apache.hadoop.record中的接口
Interface that alll the serializers have to implement.
RecordReader<K,V> - org.apache.hadoop.mapred中的接口
RecordReader reads <key, value> pairs from an InputSplit.
RecordReader<KEYIN,VALUEIN> - org.apache.hadoop.mapreduce中的类
The record reader breaks the data into key/value pairs for input to the Mapper.
RecordReader() - 类 的构造器org.apache.hadoop.mapreduce.RecordReader
 
RecordTypeInfo - org.apache.hadoop.record.meta中的类
A record's Type Information object which can read/write itself.
RecordTypeInfo() - 类 的构造器org.apache.hadoop.record.meta.RecordTypeInfo
Create an empty RecordTypeInfo object.
RecordTypeInfo(String) - 类 的构造器org.apache.hadoop.record.meta.RecordTypeInfo
Create a RecordTypeInfo object representing a record with the given name
RecordWriter<K,V> - org.apache.hadoop.mapred中的接口
RecordWriter writes the output <key, value> pairs to an output file.
RecordWriter<K,V> - org.apache.hadoop.mapreduce中的类
RecordWriter writes the output <key, value> pairs to an output file.
RecordWriter() - 类 的构造器org.apache.hadoop.mapreduce.RecordWriter
 
recoverBlock(Block, boolean, DatanodeInfo[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
Start generation-stamp recovery for specified block
recoverBlock(Block, boolean, DatanodeInfo[]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Start generation-stamp recovery for specified block
recoverBlocks(Block[], DatanodeInfo[][]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
recoverJobHistoryFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
Selects one of the two files generated as a part of recovery.
recoverLease(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Start the lease recovery of a file
recoverLease(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Start lease recovery
recoverLease(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Start lease recovery
RecursiveParam - org.apache.hadoop.hdfs.web.resources中的类
Recursive parameter.
RecursiveParam(Boolean) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RecursiveParam
Constructor.
RecursiveParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RecursiveParam
Constructor.
redCmd_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
reduce(Shard, Iterator<IntermediateForm>, OutputCollector<Shard, IntermediateForm>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
 
reduce(Shard, Iterator<IntermediateForm>, OutputCollector<Shard, Text>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
 
reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
reduce(BooleanWritable, Iterator<LongWritable>, OutputCollector<WritableComparable<?>, Writable>, Reporter) - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiReducer
Accumulate number of points inside/outside results from the mappers.
reduce(SecondarySort.IntPair, Iterable<IntWritable>, Reducer<SecondarySort.IntPair, IntWritable, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.SecondarySort.Reduce
 
reduce(IntWritable, Iterator<NullWritable>, OutputCollector<NullWritable, NullWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob
 
reduce(Text, Iterable<IntWritable>, Reducer<Text, IntWritable, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.WordCount.IntSumReducer
 
reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
Combines values for a given key.
reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorMapper
Do nothing.
reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorReducer
 
reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.ChainReducer
Chains the reduce(...)
reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
 
reduce(K, Iterator<V>, OutputCollector<K, V>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.IdentityReducer
Writes all keys and values directly to output.
reduce(K, Iterator<LongWritable>, OutputCollector<K, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.LongSumReducer
 
reduce(K2, Iterator<V2>, OutputCollector<K3, V3>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.Reducer
Reduces values for a given key.
reduce(Text, Iterable<Text>, Reducer<Text, Text, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
 
reduce(Key, Iterable<IntWritable>, Reducer<Key, IntWritable, Key, IntWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.reduce.IntSumReducer
 
reduce(KEY, Iterable<LongWritable>, Reducer<KEY, LongWritable, KEY, LongWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.reduce.LongSumReducer
 
reduce(KEYIN, Iterable<VALUEIN>, Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
This method is called once for each key.
reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeReducer
 
REDUCE_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
REDUCE_OUTPUT_KEY_VALUE_SPEC - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
ReduceAttempt20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
 
ReduceAttemptFinishedEvent - org.apache.hadoop.tools.rumen中的类
Event to record successful completion of a reduce attempt
ReduceAttemptFinishedEvent(TaskAttemptID, TaskType, String, long, long, long, String, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
Create an event to record completion of a reduce attempt
ReduceContext<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
The context passed to the Reducer.
ReduceContext(Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, RawComparator<KEYIN>, Class<KEYIN>, Class<VALUEIN>) - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext
 
ReduceContext.ValueIterable - org.apache.hadoop.mapreduce中的类
 
ReduceContext.ValueIterable() - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext.ValueIterable
 
ReduceContext.ValueIterator - org.apache.hadoop.mapreduce中的类
 
ReduceContext.ValueIterator() - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
 
reduceDebugSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
reduceProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
reduceProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the progress of the job's reduce-tasks, as a float between 0.0 and 1.0.
reduceProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
Get the progress of the job's reduce-tasks, as a float between 0.0 and 1.0.
Reducer<K2,V2,K3,V3> - org.apache.hadoop.mapred中的接口
Reduces a set of intermediate values which share a key to a smaller set of values.
Reducer<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
Reduces a set of intermediate values which share a key to a smaller set of values.
Reducer() - 类 的构造器org.apache.hadoop.mapreduce.Reducer
 
Reducer.Context - org.apache.hadoop.mapreduce中的类
 
Reducer.Context(Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, RawComparator<KEYIN>, Class<KEYIN>, Class<VALUEIN>) - 类 的构造器org.apache.hadoop.mapreduce.Reducer.Context
 
ReduceTaskAttemptInfo - org.apache.hadoop.tools.rumen中的类
ReduceTaskAttemptInfo represents the information with regard to a reduce task attempt.
ReduceTaskAttemptInfo(TaskStatus.State, TaskInfo, long, long, long) - 类 的构造器org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
 
ReflectionUtils - org.apache.hadoop.util中的类
General reflection utils
ReflectionUtils() - 类 的构造器org.apache.hadoop.util.ReflectionUtils
 
refresh(Configuration, PolicyProvider) - 类 中的静态方法org.apache.hadoop.security.authorize.ServiceAuthorizationManager
 
refresh() - 类 中的方法org.apache.hadoop.security.Groups
Refresh all user-to-groups mappings.
refresh() - 类 中的方法org.apache.hadoop.util.HostsFileReader
 
RefreshAuthorizationPolicyProtocol - org.apache.hadoop.security.authorize中的接口
Protocol which is used to refresh the authorization policy in use currently.
refreshMBeans() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
refreshMBeans() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
refreshMBeans() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
Force a refresh of MBeans
refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
 
refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Refresh the hosts and exclude files.
refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Refreshes the list of hosts and excluded hosts from the configured files.
refreshNodes() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Tells the namenode to reread the hosts and exclude files.
refreshNodes(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Rereads the config to get hosts and exclude list file names.
refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Refresh the list of datanodes that the namenode should allow to connect.
refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Command to ask the namenode to reread the hosts and excluded hosts file.
refreshNodes() - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
Refresh the node list at the JobTracker
refreshNodes() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Rereads the config to get hosts and exclude list file names.
refreshQueues() - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
Refresh the queue acls in use currently.
refreshQueues() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
refreshServiceAcl() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
refreshServiceAcl() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Refresh the authorization policy on the NameNode.
refreshServiceAcl() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
refreshServiceAcl() - 接口 中的方法org.apache.hadoop.security.authorize.RefreshAuthorizationPolicyProtocol
Refresh the service-level authorization policy in-effect.
refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
refreshSuperUserGroupsConfiguration NameNode.
refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.mapred.tools.MRAdmin
refreshSuperUserGroupsConfiguration JobTracker.
refreshSuperUserGroupsConfiguration() - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
reread the conf and get new values for "hadoop.proxyuser.*.groups/hosts"
refreshSuperUserGroupsConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
refresh configuration
refreshSuperUserGroupsConfiguration() - 接口 中的方法org.apache.hadoop.security.RefreshUserMappingsProtocol
Refresh superuser proxy group list
RefreshUserMappingsProtocol - org.apache.hadoop.security中的接口
Protocol use
refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Refresh the user-to-groups mappings on the NameNode.
refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
refreshUserToGroupsMappings() - 接口 中的方法org.apache.hadoop.security.RefreshUserMappingsProtocol
Refresh user to group mappings.
RegexFilter - org.apache.hadoop.metrics2.filter中的类
A regex pattern filter for metrics
RegexFilter() - 类 的构造器org.apache.hadoop.metrics2.filter.RegexFilter
 
RegexMapper<K> - org.apache.hadoop.mapred.lib中的类
A Mapper that extracts text matching a regular expression.
RegexMapper() - 类 的构造器org.apache.hadoop.mapred.lib.RegexMapper
 
regexpEscape(String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
register(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
REGISTER - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
 
register(DatanodeRegistration) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
Register Datanode.
register(String, String, T) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
register(String, String, T) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
register(MetricsSystem.Callback) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
register(String, String, T) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
register(String, String, T) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
register(MetricsSystem.Callback) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
register(String, String, T) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
Register a metrics source
register(String, String, T) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
Register a metrics sink
register(MetricsSystem.Callback) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
Register a callback interface for JMX events
register(String, String, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.MBeans
Register the MBean using our standard MBeanName format "hadoop:service=,name=" Where the and are the supplied parameters
registerDatanode(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Register Datanode.
registerDelegationTokensForRenewal(JobID, Credentials, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
 
registerMBean(String, String, Object) - 类 中的静态方法org.apache.hadoop.metrics.util.MBeanUtil
已过时。
Register the MBean using our standard MBeanName format "hadoop:service=,name=" Where the and are the supplied parameters
registerNotification(JobConf, JobStatus) - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
 
registerSource(String, String, T) - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
Common static method to register a source
registerUpdater(Updater) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Registers a callback to be called at regular time intervals, as determined by the implementation-class specific configuration.
registerUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Registers a callback to be called at time intervals determined by the configuration.
registerUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
registry - 类 中的变量org.apache.hadoop.metrics2.lib.AbstractMetricsSource
 
registry() - 类 中的方法org.apache.hadoop.metrics2.lib.AbstractMetricsSource
 
reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
reinit(Configuration) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Prepare the compressor to be used in a new stream with settings defined in the given Configuration
reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Prepare the compressor to be used in a new stream with settings defined in the given Configuration
reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
reinit the compressor with the given configuration.
reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
Prepare the compressor to be used in a new stream with settings defined in the given Configuration.
ReInit(InputStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
ReInit(InputStream, String) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
ReInit(Reader) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
ReInit(RccTokenManager) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
ReInit(SimpleCharStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
 
ReInit(SimpleCharStream, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
 
ReInit(Reader, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(Reader, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(Reader) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(InputStream, String, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(InputStream, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(InputStream, String) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(InputStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(InputStream, String, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
ReInit(InputStream, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
release() - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
Releases the cached files/archives, so that space can be reclaimed by the TrackerDistributedCacheManager.
release(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
已过时。
reloadConfiguration() - 类 中的方法org.apache.hadoop.conf.Configuration
Reload configuration from previously added resources.
reloginFromKeytab() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Re-Login a user in from a keytab file.
reloginFromTicketCache() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Re-Login a user in from the ticket cache.
remaining - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
RemoteException - org.apache.hadoop.ipc中的异常错误
 
RemoteException(String, String) - 异常错误 的构造器org.apache.hadoop.ipc.RemoteException
 
remove() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
remove(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
Remove the element corresponding to the given key.
remove(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
 
remove(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
remove(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
remove(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
remove() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
 
remove() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Removes, from the buffered data table, all rows having tags that equal the tags that have been set on this record.
remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Called by MetricsRecordImpl.remove().
remove() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Removes the row, if it exists, in the buffered data table having tags that equal the tags that have been set on this record.
remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
已过时。
Do-nothing version of remove
remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
已过时。
Do-nothing version of remove
remove() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
Guaranteed to throw UnsupportedOperationException
remove(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
Remove a node Update node counter & rack counter if neccessary
remove(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
Remove a node Update node counter and rack counter if necessary
removeAttribute(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
已过时。
Removes the named attribute if it exists.
removeDatanode(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
remove a datanode descriptor
removeDelegationTokenRenewalForJob(JobID) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
removing DT for completed jobs
removeJobInProgressListener(JobInProgressListener) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
RemoveScheme - org.apache.hadoop.util.bloom中的接口
Defines the different remove scheme for retouched Bloom filters.
removeSuffix(String, String) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
Removes a suffix from a filename, if it has it.
removeTag(String) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Removes any tag of the specified name.
removeTag(String) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Removes any tag of the specified name.
removeTaskDistributedCacheManager(JobID) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
 
removeTokenForJob(String) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Remove the cached job token of a job from cache
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Rename files/dirs
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Renames Path src to Path dst.
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Renames Path src to Path dst.
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
 
rename(String, String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Rename file or directory.
rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Rename files/dirs
rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
rename(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Rename an item in the file system namespace.
rename(File, File) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
 
rename(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
rename(FileSystem, String, String) - 类 中的静态方法org.apache.hadoop.io.MapFile
Renames an existing map directory.
renameFile(String, String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
renameTo(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Change the indicated filename.
renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
 
renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
 
renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
 
renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
 
renew(Configuration) - 类 中的方法org.apache.hadoop.security.token.Token
Renew this delegation token
renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
 
renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
Renew the given token.
renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
已过时。
Use Token.renew instead.
renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
已过时。
Use Token.renew instead.
renewDelegationToken(Token<DelegationTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Renew an existing delegation token.
renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
renewDelegationToken(String, InetSocketAddress, Token<DelegationTokenIdentifier>, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
Renew a Delegation Token.
renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobClient
Renew a delegation token
renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobTracker
Renew a delegation token to extend its lifetime.
renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
RenewDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
Renew delegation tokens over http for use in hftp.
RenewDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
 
RENEWER - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
 
RenewerParam - org.apache.hadoop.hdfs.web.resources中的类
Renewer parameter.
RenewerParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RenewerParam
Constructor.
renewLease(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Client programs can cause stateful changes in the NameNode that affect other clients.
renewLease(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
renewToken(Token<TokenIdent>, String) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Renew a delegation token.
replaceFile(File, File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Move the src file to the name specified by target.
replay(X) - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
replay(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
replay(V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
replay(U) - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
replay(T) - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
Assign last value returned to actual.
replay(X) - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
 
ReplicationParam - org.apache.hadoop.hdfs.web.resources中的类
Replication parameter.
ReplicationParam(Short) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ReplicationParam
Constructor.
ReplicationParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ReplicationParam
Constructor.
replthread - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
report() - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
log the counters
report() - 类 中的方法org.apache.hadoop.fs.HardLink.LinkStats
 
report() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Gives a report on how the FileSystem is doing.
reportBadBlocks(LocatedBlock[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Report corrupt blocks that were discovered by the client.
reportBadBlocks(LocatedBlock[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
The client wants to report corrupted blocks (blocks with specified locations on datanodes).
reportBadBlocks(LocatedBlock[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
The client has detected an error on the specified located blocks and is reporting them to the server.
reportBadBlocks(LocatedBlock[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Report a checksum error to the file system.
reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
Moves files to a bad file directory on the same device, so that their storage will not be reused.
reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
We need to find the blocks that didn't match.
reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
We need to find the blocks that didn't match.
reportCleanupTIPs(boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a vector of cleanup TaskInProgress objects
reportCRCError() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
 
reportDiagnosticInfo(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Called when the task dies before completion, and we want to report back diagnostic info
reportDiagnosticInfo(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report error messages back to parent.
reporter - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
 
reporter - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
reporter - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
Reporter - org.apache.hadoop.mapred中的接口
A facility for Map-Reduce applications to report progress and update counters, status information etc.
reporter - 类 中的变量org.apache.hadoop.mapred.Task.CombinerRunner
 
reporter - 类 中的变量org.apache.hadoop.mapreduce.ReduceContext
 
reportFatalError(TaskAttemptID, Throwable, String) - 类 中的方法org.apache.hadoop.mapred.Task
Report a fatal error to the parent (task) tracker.
reportNextRecordRange(TaskUmbilicalProtocol, long) - 类 中的方法org.apache.hadoop.mapred.Task
Reports the next executing record range to TaskTracker.
reportNextRecordRange(TaskAttemptID, SortedRanges.Range, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
reportNextRecordRange(TaskAttemptID, SortedRanges.Range, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report the record range which is going to process next by the Task.
reportSetupTIPs(boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a vector of setup TaskInProgress objects
reportTasksInProgress(boolean, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Return a vector of completed TaskInProgress objects
reportTaskTrackerError(String, String, String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
requestAsyncBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
requestAsyncBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Request that a block report be prepared.
requiresLayout() - 类 中的方法org.apache.hadoop.log.metrics.EventCounter
 
reserveSlots(TaskType, JobInProgress, int) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Reserve specified number of slots for a given job.
reserveSpaceWithCheckSum(Path, long) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
已过时。
Register a file with its size.
reserveTaskTracker(TaskTracker, TaskType, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
reset() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
 
reset() - 接口 中的方法org.apache.hadoop.contrib.utils.join.ResetableIterator
 
reset() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
Reset the counts of bytes to 0.
reset() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
 
reset() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
reset() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
 
reset() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
reset() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
reset() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Resets compressor so that a new set of input data can be processed.
reset() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Resets decompressor and input and output buffers so that a new set of input data can be processed.
reset() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
reset() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Resets compressor so that a new set of input data can be processed.
reset() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
 
reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Resets everything, including the input buffer, regardless of whether the current gzip substream is finished.
reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
Resets everything including the input buffers (user and direct).
reset(byte[], int) - 类 中的方法org.apache.hadoop.io.DataInputBuffer
Resets the data that the buffer reads.
reset(byte[], int, int) - 类 中的方法org.apache.hadoop.io.DataInputBuffer
Resets the data that the buffer reads.
reset() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
Resets the buffer to empty.
reset(byte[], int) - 类 中的方法org.apache.hadoop.io.InputBuffer
Resets the data that the buffer reads.
reset(byte[], int, int) - 类 中的方法org.apache.hadoop.io.InputBuffer
Resets the data that the buffer reads.
reset() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Re-positions the reader before its first key.
reset() - 类 中的方法org.apache.hadoop.io.OutputBuffer
Resets the buffer to empty.
reset() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
 
reset() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
 
reset() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
 
reset() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
reset() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
Set iterator to return to the start of its range.
reset() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
 
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
reset the aggregator
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
reset the aggregator
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
reset the aggregator
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
reset the aggregator
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
reset the aggregator
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
reset the aggregator
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
reset the aggregator
reset() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
reset the aggregator
reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
reset the aggregator
reset(BytesWritable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
reset(BytesWritable) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
reset() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
 
reset(SampleStat.MinMax) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
 
reset() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
 
reset() - 类 中的方法org.apache.hadoop.record.Buffer
Reset the buffer to 0 size
reset() - 类 中的方法org.apache.hadoop.util.DataChecksum
 
reset() - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
ResetableIterator - org.apache.hadoop.contrib.utils.join中的接口
This defines an iterator interface that will help the reducer class re-group its input by source tags.
ResetableIterator<T extends Writable> - org.apache.hadoop.mapred.join中的接口
This defines an interface to a stateful Iterator that can replay elements added to it directly.
ResetableIterator.EMPTY<U extends Writable> - org.apache.hadoop.mapred.join中的类
 
ResetableIterator.EMPTY() - 类 的构造器org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
 
resetAllMinMax() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
resetChecksumChunk(int) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
Resets existing buffer with a new one of the specified size.
resetMinMax() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
已过时。
Reset the min max values
resetMinMax() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
Reset the all time min max of the metric
resetSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
resetState() - 类 中的方法org.apache.hadoop.io.compress.BlockDecompressorStream
 
resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
Reset the decompressor to its initial state and discard any buffered data, as the underlying stream may have been repositioned.
resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
Reset the compression to the initial state.
resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
 
resetState() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
resetState() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
 
resolve(List<String>) - 类 中的方法org.apache.hadoop.net.CachedDNSToSwitchMapping
 
resolve(List<String>) - 接口 中的方法org.apache.hadoop.net.DNSToSwitchMapping
Resolves a list of DNS-names/IP-addresses and returns back a list of switch information (network paths).
resolve(String) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Resolves a given identifier.
resolveAndAddToTopology(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
resolvedURL - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
 
ResourceCalculatorPlugin - org.apache.hadoop.util中的类
Plugin to calculate resource information on the system.
ResourceCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.ResourceCalculatorPlugin
 
ResourceCalculatorPlugin.ProcResourceValues - org.apache.hadoop.util中的类
 
ResourceCalculatorPlugin.ProcResourceValues(long, long, long) - 类 的构造器org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
 
ResourceUsageMetrics - org.apache.hadoop.tools.rumen中的类
Captures the resource usage metrics.
ResourceUsageMetrics() - 类 的构造器org.apache.hadoop.tools.rumen.ResourceUsageMetrics
 
restartReplicationWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
resume() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
resume the suspended thread
resume() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
resume the suspended thread
RetouchedBloomFilter - org.apache.hadoop.util.bloom中的类
Implements a retouched Bloom filter, as defined in the CoNEXT 2006 paper.
RetouchedBloomFilter() - 类 的构造器org.apache.hadoop.util.bloom.RetouchedBloomFilter
Default constructor - use with readFields
RetouchedBloomFilter(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.RetouchedBloomFilter
Constructor
RetriableCommand - org.apache.hadoop.tools.distcp2.util中的类
This class represents commands that be retried on failure, in a configurable manner.
RetriableCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.util.RetriableCommand
Constructor.
RetriableCommand(String, RetryPolicy) - 类 的构造器org.apache.hadoop.tools.distcp2.util.RetriableCommand
Constructor.
RetriableDirectoryCreateCommand - org.apache.hadoop.tools.distcp2.mapred中的类
This class extends Retriable command to implement the creation of directories with retries on failure.
RetriableDirectoryCreateCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableDirectoryCreateCommand
Constructor, taking a description of the action.
RetriableFileCopyCommand - org.apache.hadoop.tools.distcp2.mapred中的类
This class extends RetriableCommand to implement the copy of files, with retries on failure.
RetriableFileCopyCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand
Constructor, taking a description of the action.
RetriableFileCopyCommand(boolean, String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand
Create a RetriableFileCopyCommand.
RetriableFileCopyCommand.CopyReadException - org.apache.hadoop.tools.distcp2.mapred中的异常错误
Special subclass of IOException.
RetriableFileCopyCommand.CopyReadException(Throwable) - 异常错误 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand.CopyReadException
 
retrieveAsyncBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
retrieveAsyncBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Retrieve an asynchronously prepared block report.
retrieveBlock(Block, long) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
retrieveINode(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
retrievePassword(BlockTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Look up the token password/secret for the given block token identifier.
retrievePassword(JobTokenIdentifier) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Look up the token password/secret for the given job token identifier.
retrievePassword(TokenIdent) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
 
retrievePassword(T) - 类 中的方法org.apache.hadoop.security.token.SecretManager
Retrieve the password for the given token identifier.
retrieveTokenSecret(String) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
Look up the token password/secret for the given jobId.
RETRY_FOREVER - 类 中的静态变量org.apache.hadoop.io.retry.RetryPolicies
Keep trying forever.
retryByException(RetryPolicy, Map<Class<? extends Exception>, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
Set a default policy with some explicit handlers for specific exceptions.
retryByRemoteException(RetryPolicy, Map<Class<? extends Exception>, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
A retry policy for RemoteException Set a default policy with some explicit handlers for specific exceptions.
RetryPolicies - org.apache.hadoop.io.retry中的类
A collection of useful implementations of RetryPolicy.
RetryPolicies() - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies
 
RetryPolicies.MultipleLinearRandomRetry - org.apache.hadoop.io.retry中的类
Given pairs of number of retries and sleep time (n0, t0), (n1, t1), ..., the first n0 retries sleep t0 milliseconds on average, the following n1 retries sleep t1 milliseconds on average, and so on.
RetryPolicies.MultipleLinearRandomRetry(List<RetryPolicies.MultipleLinearRandomRetry.Pair>) - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
 
RetryPolicies.MultipleLinearRandomRetry.Pair - org.apache.hadoop.io.retry中的类
Pairs of numRetries and sleepSeconds
RetryPolicies.MultipleLinearRandomRetry.Pair(int, int) - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry.Pair
 
RetryPolicy - org.apache.hadoop.io.retry中的接口
Specifies a policy for retrying method failures.
RetryProxy - org.apache.hadoop.io.retry中的类
A factory for creating retry proxies.
RetryProxy() - 类 的构造器org.apache.hadoop.io.retry.RetryProxy
 
retryUpToMaximumCountWithFixedSleep(int, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
Keep trying a limited number of times, waiting a fixed time between attempts, and then fail by re-throwing the exception.
retryUpToMaximumCountWithProportionalSleep(int, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
Keep trying a limited number of times, waiting a growing amount of time between attempts, and then fail by re-throwing the exception.
retryUpToMaximumTimeWithFixedSleep(long, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
Keep trying for a maximum time, waiting a fixed time between attempts, and then fail by re-throwing the exception.
RetryUtils - org.apache.hadoop.io.retry中的类
 
RetryUtils() - 类 的构造器org.apache.hadoop.io.retry.RetryUtils
 
returnCompressor(Compressor) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
Return the Compressor to the pool.
returnDecompressor(Decompressor) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
Return the Decompressor to the pool.
reverseDns(InetAddress, String) - 类 中的静态方法org.apache.hadoop.net.DNS
Returns the hostname associated with the specified IP address by the provided nameserver.
rewind() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Rewind to the first entry in the scanner.
rewind() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
 
RewindableInputStream - org.apache.hadoop.tools.rumen中的类
A simple wrapper class to make any input stream "rewindable".
RewindableInputStream(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.RewindableInputStream
Constructor.
RewindableInputStream(InputStream, int) - 类 的构造器org.apache.hadoop.tools.rumen.RewindableInputStream
Constructor
RIO_PREFIX - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
 
rjustify(String, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
rNodeMap - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
 
rNums - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
This array really shouldn't be here.
rollEditLog() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Roll the edit log.
rollEditLog() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
Closes the current edit log and opens a new one.
rollFsImage() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Roll the image
rollFsImage() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
Rolls the fsImage log.
ROOT - 类 中的静态变量org.apache.hadoop.net.NodeBase
 
RoundRobinDistributionPolicy - org.apache.hadoop.contrib.index.example中的类
Choose a shard for each insert in a round-robin fashion.
RoundRobinDistributionPolicy() - 类 的构造器org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
 
RPC - org.apache.hadoop.ipc中的类
A simple RPC mechanism.
RPC.Server - org.apache.hadoop.ipc中的类
An RPC Server.
RPC.Server(Object, Configuration, String, int) - 类 的构造器org.apache.hadoop.ipc.RPC.Server
Construct an RPC server.
RPC.Server(Object, Configuration, String, int, int, boolean, SecretManager<? extends TokenIdentifier>) - 类 的构造器org.apache.hadoop.ipc.RPC.Server
Construct an RPC server.
RPC.VersionMismatch - org.apache.hadoop.ipc中的异常错误
A version mismatch for the RPC protocol.
RPC.VersionMismatch(String, long, long) - 异常错误 的构造器org.apache.hadoop.ipc.RPC.VersionMismatch
Create a version mismatch exception
RpcInstrumentation - org.apache.hadoop.ipc.metrics中的类
The RPC metrics instrumentation
RpcInstrumentation.Detailed - org.apache.hadoop.ipc.metrics中的类
Use a separate source for detailed (per call) RPC metrics for easy and efficient filtering
rpcMetrics - 类 中的变量org.apache.hadoop.ipc.Server
 
rrClass - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
rrClass - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
rrConstructor - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
rrConstructor - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
rrCstrMap - 类 中的静态变量org.apache.hadoop.mapred.join.Parser.Node
 
RTI_FILTER - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
 
RTI_FILTER_FIELDS - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
 
RTI_VAR - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
 
run(Configuration, Path[], Path, int, Shard[]) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IIndexUpdater
Create a Map/Reduce job configuration and run the Map/Reduce job to analyze documents and update Lucene instances in parallel.
run(Configuration, Path[], Path, int, Shard[]) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdater
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.dancing.DistributedPentomino
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.DBCountPageView
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.Grep
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.Join
The main driver for sort program.
run(String[]) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.PiEstimator
Parse arguments and then runs a map/reduce job.
run(String[]) - 类 中的方法org.apache.hadoop.examples.RandomTextWriter
This is the main routine for launching a distributed random write job.
run(String[]) - 类 中的方法org.apache.hadoop.examples.RandomWriter
This is the main routine for launching a distributed random write job.
run(int, int, long, int, long, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.SleepJob
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.Sort
The main driver for sort program.
run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraGen
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraSort
 
run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraValidate
 
run() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
 
run(String[]) - 类 中的方法org.apache.hadoop.fs.FsShell
run
run(String[]) - 类 中的方法org.apache.hadoop.fs.s3.MigrationTool
 
run(Path) - 类 中的方法org.apache.hadoop.fs.shell.Command
Execute the command on the input path
run(Path) - 类 中的方法org.apache.hadoop.fs.shell.Count
 
run() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
 
run(String[]) - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
main method of Balancer
run() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
No matter what kind of exception we get, keep retrying to offerService().
run() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
 
run() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
 
run(String[]) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
 
run(String[]) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSck
 
run() - 类 中的方法org.apache.hadoop.mapred.HDFSMonitorThread
 
run(String[]) - 类 中的方法org.apache.hadoop.mapred.JobClient
 
run() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
The main loop for the thread.
run() - 类 中的方法org.apache.hadoop.mapred.JobHistory.HistoryCleaner
Cleans up history data.
run(String[]) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
Driver for InputSampler from the command line.
run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultithreadedMapRunner
 
run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.MapRunnable
Start mapping input <key, value> pairs.
run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.MapRunner
 
run(String[]) - 类 中的方法org.apache.hadoop.mapred.pipes.Submitter
 
run(JobConf, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.Task
Run this task as a part of the named job.
run() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
The communication thread handles communication with the parent (Task Tracker).
run() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
The server retry loop.
run(String[]) - 类 中的方法org.apache.hadoop.mapred.tools.MRAdmin
 
run() - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
 
run(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingMapper
 
run() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
The main loop for the thread.
run(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
Run the application's maps using a thread pool.
run(String[]) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler
Driver for InputSampler from the command line.
run(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
Expert users can override this method for more complete control over the execution of the Mapper.
run(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
Advanced application writers can use the Reducer.run(org.apache.hadoop.mapreduce.Reducer.Context) method to control how the reduce task works.
run(String[]) - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
The main driver for DumpTypedBytes.
run(String[]) - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
The main driver for LoadTypedBytes.
run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeMapRunner
 
run(String[]) - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
run(String[]) - 类 中的方法org.apache.hadoop.tools.DistCh
This is the main driver for recursively changing files properties.
run(String[]) - 类 中的方法org.apache.hadoop.tools.DistCp
This is the main driver for recursively copying directories across file systems.
run(String[]) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
Implementation of Tool::run().
run(String[]) - 类 中的方法org.apache.hadoop.tools.HadoopArchives
the main driver for creating the archives it takes at least three command line parameters.
run(String[]) - 类 中的方法org.apache.hadoop.tools.rumen.HadoopLogsAnalyzer
已过时。
 
run(String[]) - 类 中的方法org.apache.hadoop.tools.rumen.TraceBuilder
 
run() - 类 中的方法org.apache.hadoop.util.Shell
check to see if a command needs to be executed and execute if needed
run(String[]) - 接口 中的方法org.apache.hadoop.util.Tool
Execute the command with the given arguments.
run(Configuration, Tool, String[]) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
Runs the given Tool by Tool.run(String[]), after parsing with the given generic arguments.
run(Tool, String[]) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
Runs the Tool with its Configuration.
RUNA - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
runAll() - 类 中的方法org.apache.hadoop.fs.shell.Command
For each source path, execute the command
RUNB - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
 
runDatanodeDaemon(DataNode) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
Start a single datanode daemon and wait for it to finish.
RunJar - org.apache.hadoop.util中的类
Run a Hadoop job jar.
RunJar() - 类 的构造器org.apache.hadoop.util.RunJar
 
runJob(JobConf) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
Submit/run a map/reduce job.
runJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
Utility that submits a job, then polls for progress until the job is complete.
runJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Submit a job to the map/reduce cluster.
runJobCleanupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
 
runJobSetupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
 
RUNNING - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
 
RUNNING - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
 
running - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
 
running_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
RunningJob - org.apache.hadoop.mapred中的接口
RunningJob is the user-interface to query for details on a running Map-Reduce job.
runningJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
runningMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
runningReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
runSetup(String, String, Path, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
 
runTaskCleanupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
 

S

S3Credentials - org.apache.hadoop.fs.s3中的类
Extracts AWS credentials from the filesystem URI or configuration.
S3Credentials() - 类 的构造器org.apache.hadoop.fs.s3.S3Credentials
 
S3Exception - org.apache.hadoop.fs.s3中的异常错误
Thrown if there is a problem communicating with Amazon S3.
S3Exception(Throwable) - 异常错误 的构造器org.apache.hadoop.fs.s3.S3Exception
 
S3FileSystem - org.apache.hadoop.fs.s3中的类
A block-based FileSystem backed by Amazon S3.
S3FileSystem() - 类 的构造器org.apache.hadoop.fs.s3.S3FileSystem
 
S3FileSystem(FileSystemStore) - 类 的构造器org.apache.hadoop.fs.s3.S3FileSystem
 
S3FileSystemException - org.apache.hadoop.fs.s3中的异常错误
Thrown when there is a fatal exception while using S3FileSystem.
S3FileSystemException(String) - 异常错误 的构造器org.apache.hadoop.fs.s3.S3FileSystemException
 
S_IFBLK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFCHR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFDIR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFIFO - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFLNK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFMT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFREG - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFSOCK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IFWHT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IRUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_ISGID - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_ISUID - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_ISVTX - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IWUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
S_IXUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
 
safeGetCanonicalPath(File) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
SafeModeException - org.apache.hadoop.hdfs.server.namenode中的异常错误
This exception is thrown when the name node is in safe mode.
SafeModeException(String, FSNamesystem.SafeModeInfo) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.SafeModeException
 
SafeModeException - org.apache.hadoop.mapred中的异常错误
This exception is thrown when the JobTracker is in safe mode.
SafeModeException(String) - 异常错误 的构造器org.apache.hadoop.mapred.SafeModeException
SafeModeException
SampleStat - org.apache.hadoop.metrics2.util中的类
Helper to compute running sample stats
SampleStat() - 类 的构造器org.apache.hadoop.metrics2.util.SampleStat
Construct a new running sample stat
SampleStat.MinMax - org.apache.hadoop.metrics2.util中的类
Helper to keep running min/max
SampleStat.MinMax() - 类 的构造器org.apache.hadoop.metrics2.util.SampleStat.MinMax
 
SASL_DEFAULT_REALM - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
 
SASL_PROPS - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
 
saslConnect(InputStream, OutputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
Do client side SASL authentication with server via the given InputStream and OutputStream
SaslInputStream - org.apache.hadoop.security中的类
A SaslInputStream is composed of an InputStream and a SaslServer (or SaslClient) so that read() methods return data that are read in from the underlying InputStream but have been additionally processed by the SaslServer (or SaslClient) object.
SaslInputStream(InputStream, SaslServer) - 类 的构造器org.apache.hadoop.security.SaslInputStream
Constructs a SASLInputStream from an InputStream and a SaslServer
Note: if the specified InputStream or SaslServer is null, a NullPointerException may be thrown later when they are used.
SaslInputStream(InputStream, SaslClient) - 类 的构造器org.apache.hadoop.security.SaslInputStream
Constructs a SASLInputStream from an InputStream and a SaslClient
Note: if the specified InputStream or SaslClient is null, a NullPointerException may be thrown later when they are used.
SaslOutputStream - org.apache.hadoop.security中的类
A SaslOutputStream is composed of an OutputStream and a SaslServer (or SaslClient) so that write() methods first process the data before writing them out to the underlying OutputStream.
SaslOutputStream(OutputStream, SaslServer) - 类 的构造器org.apache.hadoop.security.SaslOutputStream
Constructs a SASLOutputStream from an OutputStream and a SaslServer
Note: if the specified OutputStream or SaslServer is null, a NullPointerException may be thrown later when they are used.
SaslOutputStream(OutputStream, SaslClient) - 类 的构造器org.apache.hadoop.security.SaslOutputStream
Constructs a SASLOutputStream from an OutputStream and a SaslClient
Note: if the specified OutputStream or SaslClient is null, a NullPointerException may be thrown later when they are used.
saslQop - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
 
SaslRpcClient - org.apache.hadoop.security中的类
A utility class that encapsulates SASL logic for RPC client
SaslRpcClient(SaslRpcServer.AuthMethod, Token<? extends TokenIdentifier>, String, boolean) - 类 的构造器org.apache.hadoop.security.SaslRpcClient
Create a SaslRpcClient for an authentication method
SaslRpcServer - org.apache.hadoop.security中的类
A utility class for dealing with SASL on RPC server
SaslRpcServer() - 类 的构造器org.apache.hadoop.security.SaslRpcServer
 
SaslRpcServer.AuthMethod - org.apache.hadoop.security中的枚举
Authentication method
SaslRpcServer.QualityOfProtection - org.apache.hadoop.security中的枚举
 
SaslRpcServer.SaslDigestCallbackHandler - org.apache.hadoop.security中的类
CallbackHandler for SASL DIGEST-MD5 mechanism
SaslRpcServer.SaslDigestCallbackHandler(SecretManager<TokenIdentifier>, Server.Connection) - 类 的构造器org.apache.hadoop.security.SaslRpcServer.SaslDigestCallbackHandler
 
SaslRpcServer.SaslGssCallbackHandler - org.apache.hadoop.security中的类
CallbackHandler for SASL GSSAPI Kerberos mechanism
SaslRpcServer.SaslGssCallbackHandler() - 类 的构造器org.apache.hadoop.security.SaslRpcServer.SaslGssCallbackHandler
 
SaslRpcServer.SaslStatus - org.apache.hadoop.security中的枚举
 
saveCurrent(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
Save current image and empty journal into current directory.
saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Save namespace image.
saveNamespace() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Save namespace image.
saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Command to ask the namenode to save the namespace.
saveSecretManagerState(DataOutputStream) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Store the current state of the SecretManager for persistence
scheduleBlockReport(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
This methods arranges for the data node to send the block report at the next heartbeat.
scheduleMap(TaskInProgress) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Adds a map tip to the list of running maps.
scheduleOffSwitch(int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Check if we can schedule an off-switch task for this job.
scheduleReduce(TaskInProgress) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Adds a reduce tip to the list of running reduces
scheduleReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
schedulingOpportunity() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
SCHEME - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
File System URI: {SCHEME}://namenode:port/path/to/file
SCHEME - 类 中的静态变量org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
 
ScriptBasedMapping - org.apache.hadoop.net中的类
This class implements the DNSToSwitchMapping interface using a script configured via topology.script.file.name .
ScriptBasedMapping() - 类 的构造器org.apache.hadoop.net.ScriptBasedMapping
 
ScriptBasedMapping(Configuration) - 类 的构造器org.apache.hadoop.net.ScriptBasedMapping
 
SecondaryNameNode - org.apache.hadoop.hdfs.server.namenode中的类
The Secondary NameNode is a helper to the primary NameNode.
SecondaryNameNode(Configuration) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
Create a connection to the primary namenode.
SecondarySort - org.apache.hadoop.examples中的类
This is an example Hadoop Map/Reduce application.
SecondarySort() - 类 的构造器org.apache.hadoop.examples.SecondarySort
 
SecondarySort.FirstGroupingComparator - org.apache.hadoop.examples中的类
Compare only the first part of the pair, so that reduce is called once for each value of the first part.
SecondarySort.FirstGroupingComparator() - 类 的构造器org.apache.hadoop.examples.SecondarySort.FirstGroupingComparator
 
SecondarySort.FirstPartitioner - org.apache.hadoop.examples中的类
Partition based on the first part of the pair.
SecondarySort.FirstPartitioner() - 类 的构造器org.apache.hadoop.examples.SecondarySort.FirstPartitioner
 
SecondarySort.IntPair - org.apache.hadoop.examples中的类
Define a pair of integers that are writable.
SecondarySort.IntPair() - 类 的构造器org.apache.hadoop.examples.SecondarySort.IntPair
 
SecondarySort.IntPair.Comparator - org.apache.hadoop.examples中的类
A Comparator that compares serialized IntPair.
SecondarySort.IntPair.Comparator() - 类 的构造器org.apache.hadoop.examples.SecondarySort.IntPair.Comparator
 
SecondarySort.MapClass - org.apache.hadoop.examples中的类
Read two integers from each line and generate a key, value pair as ((left, right), right).
SecondarySort.MapClass() - 类 的构造器org.apache.hadoop.examples.SecondarySort.MapClass
 
SecondarySort.Reduce - org.apache.hadoop.examples中的类
A reducer class that just emits the sum of the input values.
SecondarySort.Reduce() - 类 的构造器org.apache.hadoop.examples.SecondarySort.Reduce
 
SecretManager<T extends TokenIdentifier> - org.apache.hadoop.security.token中的类
The server-side secret manager for each token type.
SecretManager() - 类 的构造器org.apache.hadoop.security.token.SecretManager
 
SecretManager.InvalidToken - org.apache.hadoop.security.token中的异常错误
The token was invalid and the message explains why.
SecretManager.InvalidToken(String) - 异常错误 的构造器org.apache.hadoop.security.token.SecretManager.InvalidToken
 
SecureDataNodeStarter - org.apache.hadoop.hdfs.server.datanode中的类
Utility class to start a datanode in a secure cluster, first obtaining privileged resources before main startup and handing them to the datanode.
SecureDataNodeStarter() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
 
SecureDataNodeStarter.SecureResources - org.apache.hadoop.hdfs.server.datanode中的类
Stash necessary resources needed for datanode operation in a secure env.
SecureDataNodeStarter.SecureResources(ServerSocket, SelectChannelConnector) - 类 的构造器org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
 
SecureIOUtils - org.apache.hadoop.io中的类
This class provides secure APIs for opening and creating files on the local disk.
SecureIOUtils() - 类 的构造器org.apache.hadoop.io.SecureIOUtils
 
SecureIOUtils.AlreadyExistsException - org.apache.hadoop.io中的异常错误
Signals that an attempt to create a file at a given pathname has failed because another file already existed at that path.
SecureIOUtils.AlreadyExistsException(String) - 异常错误 的构造器org.apache.hadoop.io.SecureIOUtils.AlreadyExistsException
 
SecureIOUtils.AlreadyExistsException(Throwable) - 异常错误 的构造器org.apache.hadoop.io.SecureIOUtils.AlreadyExistsException
 
secureMain(String[], SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
SecureShuffleUtils - org.apache.hadoop.mapreduce.security中的类
utilities for generating kyes, hashes and verifying them for shuffle
SecureShuffleUtils() - 类 的构造器org.apache.hadoop.mapreduce.security.SecureShuffleUtils
 
SecurityUtil - org.apache.hadoop.security中的类
 
SecurityUtil() - 类 的构造器org.apache.hadoop.security.SecurityUtil
 
SecurityUtil.QualifiedHostResolver - org.apache.hadoop.security中的类
This an alternate resolver with important properties that the standard java resolver lacks: 1) The hostname is fully qualified.
SecurityUtil.QualifiedHostResolver() - 类 的构造器org.apache.hadoop.security.SecurityUtil.QualifiedHostResolver
 
seek(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
seek(long) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
 
seek(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Seek to the given position in the stream.
seek(long) - 类 中的方法org.apache.hadoop.fs.FSInputStream
Seek to the given offset from the start of the file.
seek(long) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
seek(long) - 接口 中的方法org.apache.hadoop.fs.Seekable
Seek to the given offset from the start of the file.
seek(long) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
Seek to the given offset from the start of the file.
seek(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
Seek to a new arbitrary location
seek(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
seek(long) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
Positions the reader before its nth value.
seek(long) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
This method is current not supported.
seek(WritableComparable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
Positions the reader at the named key, or if none such exists, at the first entry after the named key.
seek(long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Set the current byte position in the input file.
seek(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
 
seek(long) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
 
Seekable - org.apache.hadoop.fs中的接口
Stream that permits seeking.
seekNextRecordBoundary() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
Implementation should seek forward in_ to the first byte of the next record.
seekNextRecordBoundary() - 类 中的方法org.apache.hadoop.streaming.StreamXmlRecordReader
 
seekTo(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Move the cursor to the first entry whose key is greater than or equal to the input key.
seekTo(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Move the cursor to the first entry whose key is greater than or equal to the input key.
seekToEnd() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Seek to the end of the scanner.
seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
 
seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.FSInputStream
Seeks a different copy of the data.
seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
 
seekToNewSource(long) - 接口 中的方法org.apache.hadoop.fs.Seekable
Seeks a different copy of the data.
seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
Seeks a different copy of the data.
seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
Seek to given position on a node other than the current node.
seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
seekToNewSource(long) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
This method is current not supported.
seenPrimary_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
selectHdfsDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
selectHdfsDelegationToken(InetSocketAddress, UserGroupInformation, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSelector
Select the delegation token for hdfs from the ugi.
selectHftpDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
selectHftpDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
 
selectiveClearing(Key, short) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
Performs the selective clearing for a given key.
selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSelector
 
selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSelector
 
selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSelector
 
selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 接口 中的方法org.apache.hadoop.security.token.TokenSelector
 
SEMICOLON_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
sendHeartbeat(DatanodeRegistration, long, long, long, int, int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Data node notify the name node that it is alive Return an array of block-oriented commands for the datanode to execute.
sendHeartbeat(DatanodeRegistration, long, long, long, int, int) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
sendHeartbeat() tells the NameNode that the DataNode is still alive and well.
SEPARATOR - 类 中的静态变量org.apache.hadoop.fs.Path
The directory separator, a slash.
SEPARATOR - 类 中的静态变量org.apache.hadoop.mapreduce.ID
 
SEPARATOR_CHAR - 类 中的静态变量org.apache.hadoop.fs.Path
 
SequenceFile - org.apache.hadoop.io中的类
SequenceFiles are flat files consisting of binary key/value pairs.
SequenceFile.CompressionType - org.apache.hadoop.io中的枚举
The compression type used to compress key/value pairs in the SequenceFile.
SequenceFile.Metadata - org.apache.hadoop.io中的类
The class encapsulating with the metadata of a file.
SequenceFile.Metadata() - 类 的构造器org.apache.hadoop.io.SequenceFile.Metadata
 
SequenceFile.Metadata(TreeMap<Text, Text>) - 类 的构造器org.apache.hadoop.io.SequenceFile.Metadata
 
SequenceFile.Reader - org.apache.hadoop.io中的类
Reads key/value pairs from a sequence-format file.
SequenceFile.Reader(FileSystem, Path, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Reader
Open the named file.
SequenceFile.Sorter - org.apache.hadoop.io中的类
Sorts key/value pairs in a sequence-format file.
SequenceFile.Sorter(FileSystem, Class<? extends WritableComparable>, Class, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter
Sort and merge files containing the named classes.
SequenceFile.Sorter(FileSystem, RawComparator, Class, Class, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter
Sort and merge using an arbitrary RawComparator.
SequenceFile.Sorter.RawKeyValueIterator - org.apache.hadoop.io中的接口
The interface to iterate over raw keys/values of SequenceFiles.
SequenceFile.Sorter.SegmentDescriptor - org.apache.hadoop.io中的类
This class defines a merge segment.
SequenceFile.Sorter.SegmentDescriptor(long, long, Path) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
Constructs a segment
SequenceFile.ValueBytes - org.apache.hadoop.io中的接口
The interface to 'raw' values of SequenceFiles.
SequenceFile.Writer - org.apache.hadoop.io中的类
Write key/value pairs to a sequence-format file.
SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
Create the named file.
SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class, Progressable, SequenceFile.Metadata) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
Create the named file with write-progress reporter.
SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class, int, short, long, Progressable, SequenceFile.Metadata) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
Create the named file with write-progress reporter.
SequenceFileAsBinaryInputFormat - org.apache.hadoop.mapred中的类
InputFormat reading keys, values from SequenceFiles in binary (raw) format.
SequenceFileAsBinaryInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat
 
SequenceFileAsBinaryInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
InputFormat reading keys, values from SequenceFiles in binary (raw) format.
SequenceFileAsBinaryInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat
 
SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader - org.apache.hadoop.mapred中的类
Read records from a SequenceFile as binary (raw) bytes.
SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
Read records from a SequenceFile as binary (raw) bytes.
SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
 
SequenceFileAsBinaryOutputFormat - org.apache.hadoop.mapred中的类
An OutputFormat that writes keys, values to SequenceFiles in binary(raw) format
SequenceFileAsBinaryOutputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
 
SequenceFileAsBinaryOutputFormat - org.apache.hadoop.mapreduce.lib.output中的类
An OutputFormat that writes keys, values to SequenceFiles in binary(raw) format
SequenceFileAsBinaryOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
 
SequenceFileAsBinaryOutputFormat.WritableValueBytes - org.apache.hadoop.mapred中的类
Inner class used for appendRaw
SequenceFileAsBinaryOutputFormat.WritableValueBytes() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
SequenceFileAsBinaryOutputFormat.WritableValueBytes(BytesWritable) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
SequenceFileAsBinaryOutputFormat.WritableValueBytes - org.apache.hadoop.mapreduce.lib.output中的类
Inner class used for appendRaw
SequenceFileAsBinaryOutputFormat.WritableValueBytes() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
SequenceFileAsBinaryOutputFormat.WritableValueBytes(BytesWritable) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
SequenceFileAsTextInputFormat - org.apache.hadoop.mapred中的类
This class is similar to SequenceFileInputFormat, except it generates SequenceFileAsTextRecordReader which converts the input keys and values to their String forms by calling toString() method.
SequenceFileAsTextInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsTextInputFormat
 
SequenceFileAsTextInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
This class is similar to SequenceFileInputFormat, except it generates SequenceFileAsTextRecordReader which converts the input keys and values to their String forms by calling toString() method.
SequenceFileAsTextInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextInputFormat
 
SequenceFileAsTextRecordReader - org.apache.hadoop.mapred中的类
This class converts the input keys and values to their String forms by calling toString() method.
SequenceFileAsTextRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
 
SequenceFileAsTextRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
This class converts the input keys and values to their String forms by calling toString() method.
SequenceFileAsTextRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
 
SequenceFileInputFilter<K,V> - org.apache.hadoop.mapred中的类
A class that allows a map/red job to work on a sample of sequence files.
SequenceFileInputFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter
 
SequenceFileInputFilter<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
A class that allows a map/red job to work on a sample of sequence files.
SequenceFileInputFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
 
SequenceFileInputFilter.Filter - org.apache.hadoop.mapred中的接口
filter interface
SequenceFileInputFilter.Filter - org.apache.hadoop.mapreduce.lib.input中的接口
filter interface
SequenceFileInputFilter.FilterBase - org.apache.hadoop.mapred中的类
base class for Filters
SequenceFileInputFilter.FilterBase() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.FilterBase
 
SequenceFileInputFilter.FilterBase - org.apache.hadoop.mapreduce.lib.input中的类
base class for Filters
SequenceFileInputFilter.FilterBase() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.FilterBase
 
SequenceFileInputFilter.MD5Filter - org.apache.hadoop.mapred中的类
This class returns a set of records by examing the MD5 digest of its key against a filtering frequency f.
SequenceFileInputFilter.MD5Filter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
 
SequenceFileInputFilter.MD5Filter - org.apache.hadoop.mapreduce.lib.input中的类
This class returns a set of records by examing the MD5 digest of its key against a filtering frequency f.
SequenceFileInputFilter.MD5Filter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
 
SequenceFileInputFilter.PercentFilter - org.apache.hadoop.mapred中的类
This class returns a percentage of records The percentage is determined by a filtering frequency f using the criteria record# % f == 0.
SequenceFileInputFilter.PercentFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
 
SequenceFileInputFilter.PercentFilter - org.apache.hadoop.mapreduce.lib.input中的类
This class returns a percentage of records The percentage is determined by a filtering frequency f using the criteria record# % f == 0.
SequenceFileInputFilter.PercentFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
 
SequenceFileInputFilter.RegexFilter - org.apache.hadoop.mapred中的类
Records filter by matching key to regex
SequenceFileInputFilter.RegexFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
 
SequenceFileInputFilter.RegexFilter - org.apache.hadoop.mapreduce.lib.input中的类
Records filter by matching key to regex
SequenceFileInputFilter.RegexFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
 
SequenceFileInputFormat<K,V> - org.apache.hadoop.mapred中的类
SequenceFileInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFormat
 
SequenceFileInputFormat<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
SequenceFileInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
 
SequenceFileOutputFormat<K,V> - org.apache.hadoop.mapred中的类
An OutputFormat that writes SequenceFiles.
SequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileOutputFormat
 
SequenceFileOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
An OutputFormat that writes SequenceFiles.
SequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
 
SequenceFileRecordReader<K,V> - org.apache.hadoop.mapred中的类
SequenceFileRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileRecordReader
 
SequenceFileRecordReader<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
SequenceFileRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
 
Serialization<T> - org.apache.hadoop.io.serializer中的接口
Encapsulates a Serializer/Deserializer pair.
SerializationFactory - org.apache.hadoop.io.serializer中的类
A factory for Serializations.
SerializationFactory(Configuration) - 类 的构造器org.apache.hadoop.io.serializer.SerializationFactory
Serializations are found by reading the io.serializations property from conf, which is a comma-delimited list of classnames.
serialize() - 类 中的方法org.apache.hadoop.fs.s3.INode
 
serialize(T) - 接口 中的方法org.apache.hadoop.io.serializer.Serializer
Serialize t to the underlying output stream.
serialize(RecordOutput, String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
Serialize the type information for a record
serialize(RecordOutput, String) - 类 中的方法org.apache.hadoop.record.Record
Serialize a record with tag (ususally field name)
serialize(RecordOutput) - 类 中的方法org.apache.hadoop.record.Record
Serialize a record without a tag
Serializer<T> - org.apache.hadoop.io.serializer中的接口
Provides a facility for serializing objects of type to an OutputStream.
serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
 
serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
 
serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
Server - org.apache.hadoop.ipc中的类
An abstract IPC service.
Server(String, int, Class<? extends Writable>, int, Configuration) - 类 的构造器org.apache.hadoop.ipc.Server
 
Server(String, int, Class<? extends Writable>, int, Configuration, String) - 类 的构造器org.apache.hadoop.ipc.Server
 
Server(String, int, Class<? extends Writable>, int, Configuration, String, SecretManager<? extends TokenIdentifier>) - 类 的构造器org.apache.hadoop.ipc.Server
Constructs a server listening on the named port and address.
Server.Connection - org.apache.hadoop.ipc中的类
Reads calls from a connection and queues them for handling.
Server.Connection(SelectionKey, SocketChannel, long) - 类 的构造器org.apache.hadoop.ipc.Server.Connection
 
Servers - org.apache.hadoop.metrics2.util中的类
Helpers to handle server addresses
SERVERS_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
Service - org.apache.hadoop.security.authorize中的类
An abstract definition of service as related to Service Level Authorization for Hadoop.
Service(String, Class<?>) - 类 的构造器org.apache.hadoop.security.authorize.Service
 
SERVICE_AUTHORIZATION_CONFIG - 类 中的静态变量org.apache.hadoop.security.authorize.ServiceAuthorizationManager
ServiceAuthorizationManager - org.apache.hadoop.security.authorize中的类
An authorization manager which handles service-level authorization for incoming service requests.
ServiceAuthorizationManager() - 类 的构造器org.apache.hadoop.security.authorize.ServiceAuthorizationManager
 
ServicePlugin - org.apache.hadoop.util中的接口
Service plug-in interface.
serviceRPCAddress - 类 中的变量org.apache.hadoop.hdfs.server.namenode.NameNode
RPC server for DN address
ServletUtil - org.apache.hadoop.util中的类
 
ServletUtil() - 类 的构造器org.apache.hadoop.util.ServletUtil
 
SESSION_TIMEZONE_KEY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
Configuration key to set to a timezone string.
set(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the value of the name property.
set(int, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
Set the left and right values.
set(boolean, Checksum, int, int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Set the checksum related parameters
set(String) - 类 中的方法org.apache.hadoop.fs.GlobPattern
Set and compile a glob pattern
set(long, long, long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
set(Writable[]) - 类 中的方法org.apache.hadoop.io.ArrayWritable
 
set(boolean) - 类 中的方法org.apache.hadoop.io.BooleanWritable
Set the value of the BooleanWritable
set(BytesWritable) - 类 中的方法org.apache.hadoop.io.BytesWritable
Set the BytesWritable to the contents of the given newData.
set(byte[], int, int) - 类 中的方法org.apache.hadoop.io.BytesWritable
Set the value to a copy of the given byte range
set(byte) - 类 中的方法org.apache.hadoop.io.ByteWritable
Set the value of this ByteWritable.
set(double) - 类 中的方法org.apache.hadoop.io.DoubleWritable
 
set(float) - 类 中的方法org.apache.hadoop.io.FloatWritable
Set the value of this FloatWritable.
set(Writable) - 类 中的方法org.apache.hadoop.io.GenericWritable
Set the instance that is wrapped.
set(int) - 类 中的方法org.apache.hadoop.io.IntWritable
Set the value of this IntWritable.
set(long) - 类 中的方法org.apache.hadoop.io.LongWritable
Set the value of this LongWritable.
set(MD5Hash) - 类 中的方法org.apache.hadoop.io.MD5Hash
Copy the contents of another instance into this instance.
set(Object) - 类 中的方法org.apache.hadoop.io.ObjectWritable
Reset the instance.
set(Text, Text) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
set(String) - 类 中的方法org.apache.hadoop.io.Text
Set to contain the contents of a string.
set(byte[]) - 类 中的方法org.apache.hadoop.io.Text
Set to a utf8 byte array
set(Text) - 类 中的方法org.apache.hadoop.io.Text
copy a text.
set(byte[], int, int) - 类 中的方法org.apache.hadoop.io.Text
Set the Text to range of bytes
set(Writable[][]) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
 
set(String) - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
Set to contain the contents of a string.
set(UTF8) - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
Set to contain the contents of a string.
set(int) - 类 中的方法org.apache.hadoop.io.VIntWritable
Set the value of this VIntWritable.
set(long) - 类 中的方法org.apache.hadoop.io.VLongWritable
Set the value of this LongWritable.
set(int) - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
已过时。
Set the value
set(long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
已过时。
Set the value
set(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
Set the value of the metric
set(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
Set the value of the metric
set(byte[]) - 类 中的方法org.apache.hadoop.record.Buffer
Use the specified bytes array as underlying sequence.
set(byte[], double) - 类 中的方法org.apache.hadoop.util.bloom.Key
 
set(float) - 类 中的方法org.apache.hadoop.util.Progress
Called during execution on a leaf node to set its progress.
SET_GROUP_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
 
SET_OWNER_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
a Unix command to set owner
SET_PERMISSION_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
a Unix command to set permission
setAdminState(DatanodeInfo.AdminStates) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Sets the admin state of this node.
setAggregatorDescriptors(JobConf, Class<? extends ValueAggregatorDescriptor>[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
 
setArchiveSizes(JobID, long[]) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Set the sizes for any archives, files, or directories in the private distributed cache.
setArchiveTimestamps(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
This is to check the timestamp of the archives to be localized.
setAssignedJobID(JobID) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Set the mapred ID for this job as assigned by the mapred framework.
setAtomicCommit(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set if data need to be committed automatically
setAtomicWorkPath(Path) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set the work path for atomic commit
setAttemptsToStartSkipping(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Set the number of Task attempts AFTER which skip mode will be kicked off.
setAttribute(String, Object) - 类 中的方法org.apache.hadoop.http.HttpServer
Set a value in the webapp context.
setAttribute(Context, String, Object) - 类 中的方法org.apache.hadoop.http.HttpServer
Set a value in the webapp context.
setAttribute(String, Object) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
已过时。
Sets the named factory attribute to the specified value, creating it if it did not already exist.
setAttribute(Attribute) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
已过时。
 
setAttributes(AttributeList) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
已过时。
 
setAuthenticationMethod(UserGroupInformation.AuthenticationMethod) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Sets the authentication method in the subject
setAutoIncrMapperProcCount(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Set the flag which if set to true, SkipBadRecords.COUNTER_MAP_PROCESSED_RECORDS is incremented by MapRunner after invoking the map function.
setAutoIncrReducerProcCount(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Set the flag which if set to true, SkipBadRecords.COUNTER_REDUCE_PROCESSED_GROUPS is incremented by framework after invoking the reduce function.
setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Requests the namenode to tell all datanodes to use a new, non-persistent bandwidth value for dfs.balance.bandwidthPerSec.
setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Requests the namenode to tell all datanodes to use a new, non-persistent bandwidth value for dfs.balance.bandwidthPerSec.
setBalancerBandwidth(long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Tell all datanodes to use a new, non-persistent bandwidth value for dfs.balance.bandwidthPerSec.
setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
 
setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Tell all datanodes to use a new, non-persistent bandwidth value for dfs.balance.bandwidthPerSec.
setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Tell all datanodes to use a new, non-persistent bandwidth value for dfs.balance.bandwidthPerSec.
setBalancerBandwidth(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Command to ask the namenode to set the balancer bandwidth for all of the datanodes.
setBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
Sets throttle bandwidth.
setBlockId(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
setBlocking(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set if Disctp should run blocking or non-blocking
setBlockToken(Token<BlockTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
setBoolean(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the value of the name property to a boolean.
setBooleanIfUnset(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the given property, if it is currently unset.
setBoundingQuery(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
Set the user-defined bounding query to use with a user-defined query.
setCacheArchives(URI[], Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Set the configuration with the given set of archives.
setCacheFiles(URI[], Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Set the configuration with the given set of files.
setCancelDelegationTokenUponJobCompletion(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
Sets the flag that will allow the JobTracker to cancel the HDFS delegation tokens upon job completion.
setCapacity(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Sets raw capacity.
setCapacity(int) - 类 中的方法org.apache.hadoop.io.BytesWritable
Change the capacity of the backing storage.
setCapacity(int) - 类 中的方法org.apache.hadoop.record.Buffer
Change the capacity of the backing storage.
setChanged() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
Set the changed flag in mutable operations
setChannelPosition(Block, FSDatasetInterface.BlockWriteStreams, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Sets the offset in the block to which the the next write will write data to.
setChannelPosition(Block, FSDatasetInterface.BlockWriteStreams, long, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Sets the file pointer of the data stream and checksum stream to the specified values.
setClass(String, Class<?>, Class<?>) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the value of the name property to the name of a theClass implementing the given interface xface.
setClassLoader(ClassLoader) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the class loader that will be used to load the various objects.
setCodecClasses(Configuration, List<Class>) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
Sets a list of codec classes in the configuration.
setCombinerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the user-defined combiner class used to combine map-outputs before being sent to the reducers.
setCombinerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the combiner class for the job.
setCommitDirectory(Job, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
Setter for the final directory for DistCp (where files copied will be moved, atomically.)
setCompressionLevel(Configuration, ZlibCompressor.CompressionLevel) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
 
setCompressionStrategy(Configuration, ZlibCompressor.CompressionStrategy) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
 
setCompressionType(Configuration, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
已过时。
setCompressMapOutput(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Should the map outputs be compressed before transfer?
setCompressOutput(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Set whether the output of the job is compressed.
setCompressOutput(Job, boolean) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Set whether the output of the job is compressed.
setConf(Configuration) - 接口 中的方法org.apache.hadoop.conf.Configurable
Set the configuration to be used by this object.
setConf(Configuration) - 类 中的方法org.apache.hadoop.conf.Configured
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
set this balancer's configuration
setConf(Configuration) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
Set the configuration to be used by this object.
setConf(Configuration) - 类 中的方法org.apache.hadoop.io.GenericWritable
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.io.ObjectWritable
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Set the configuration to be used by this object.
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
configure the filter according to configuration
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
configure the filter by checking the configuration
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
configure the Filter by checking the configuration
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.Task
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.TaskController
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
Set the configuration to be used by this object.
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
configure the filter according to configuration
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
configure the filter by checking the configuration
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
configure the Filter by checking the configuration
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
Read in the partition file and build indexing data structures.
setConf(Configuration) - 类 中的方法org.apache.hadoop.net.ScriptBasedMapping
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.DistCp
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.HadoopArchives
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
 
setConf(Configuration) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
 
setConf(Object, Configuration) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
Check and set 'configuration' if necessary.
setConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.KerberosName
Set the static configuration to get the rules.
setConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
Set the static configuration for UGI.
setConfirmationNeeded(boolean) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
setContentionTracing(boolean) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
 
setContext(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Set the metrics context tag
setContext(String) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Set the context tag
setCopyStrategy(String) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set the copy strategy to use.
setCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Set the task's counters.
setCountersEnabled(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
Enables or disables counters for the named outputs.
setCountersEnabled(Job, boolean) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Enables or disables counters for the named outputs.
setCredentials(Credentials) - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
set Credentials store, on which FS delegatin token will be cached
setCumulativeCpuUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Set the cumulative CPU usage.
setDebugStream(PrintStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
 
setDecommissioned() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Sets the admin state to indicate that decommision is complete.
setDefaultAuthenticator(Class<? extends Authenticator>) - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
Sets the default Authenticator class to use when an AuthenticatedURL instance is created without specifying an authenticator.
setDefaultUri(Configuration, URI) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Set the default filesystem URI in a configuration.
setDefaultUri(Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
Set the default filesystem URI in a configuration.
setDelegationToken(Token<T>) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
setDelegationToken(Token<T>) - 接口 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer.Renewable
Set delegation token.
setDelegationToken(Token<T>) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
setDelete(Term) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Set the instance to be a delete operation.
setDeleteMissing(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set if files only present in target should be deleted
setDestdir(File) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
Sets directory where output files will be generated
setDiagnosticInfo(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
setDictionary(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Sets preset dictionary for compression.
setDictionary(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Sets preset dictionary for compression.
setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Does nothing.
setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Does nothing.
setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Sets preset dictionary for compression.
setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
setDigest(String) - 类 中的方法org.apache.hadoop.io.MD5Hash
Sets the digest value from a hex string.
setDisplayName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
 
setDisplayName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Set the display name
setDisplayName(String) - 类 中的方法org.apache.hadoop.mapreduce.Counter
已过时。
setDistributionPolicyClass(Class<? extends IDistributionPolicy>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the distribution policy class.
setDocumentAnalyzerClass(Class<? extends Analyzer>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the analyzer class.
setDoubleValue(Object, double) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
Set the given counter to the given value
setEditLog(FSEditLog) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
Testing hook
setEnd(long) - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
 
setEnum(String, T) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the value of the name property to the given type.
setEnvironment(Map<String, String>) - 类 中的方法org.apache.hadoop.util.Shell
set the environment for the command
setEventId(int) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
set event Id. should be assigned incrementally starting from 0.
setExcludesFile(String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
 
setExecutable(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Set the URI for the application's executable.
setExpires(long) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Sets the expiration of the token.
setExpiryDate(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
setExpiryDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
 
setFactor(int) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Set the number of streams to merge at once.
setFactory(Class, WritableFactory) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
Define a factory for a class.
setFailonerror(boolean) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
Given multiple files (via fileset), set the error handling behavior
setFailureInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobStatus
set the reason for failuire of this job
setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
Set common storage fields.
setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
 
setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
Write last checkpoint time and version file into the storage directory.
SetFile - org.apache.hadoop.io中的类
A file-based set of keys.
SetFile() - 类 的构造器org.apache.hadoop.io.SetFile
 
setFile(File) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
Sets the record definition file attribute
SetFile.Reader - org.apache.hadoop.io中的类
Provide access to an existing set file.
SetFile.Reader(FileSystem, String, Configuration) - 类 的构造器org.apache.hadoop.io.SetFile.Reader
Construct a set reader for the named set.
SetFile.Reader(FileSystem, String, WritableComparator, Configuration) - 类 的构造器org.apache.hadoop.io.SetFile.Reader
Construct a set reader for the named set using the named comparator.
SetFile.Writer - org.apache.hadoop.io中的类
Write a new set file.
SetFile.Writer(FileSystem, String, Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
已过时。
pass a Configuration too
SetFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
Create a set naming the element class and compression type.
SetFile.Writer(Configuration, FileSystem, String, WritableComparator, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
Create a set naming the element comparator and compression type.
setFileLength(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
Sets the file length of the file.
setFileTimestamps(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
This is to check the timestamp of the files to be localized.
setFilterClass(Configuration, Class) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter
set the filter class
setFilterClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
set the filter class
setFinalSync(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraOutputFormat
Set the requirement for a final sync before the stream is closed.
setFloat(String, float) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the value of the name property to a float.
setForce(int) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
setFormat(JobConf) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
Interpret a given string as a composite expression.
setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
set the filtering frequency in configuration
setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
set the frequency and stores it in conf
setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
set the filtering frequency in configuration
setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
set the frequency and stores it in conf
setFsImageLoadTime(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
setGenerationStamp(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
setGenerationStamp(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Sets the generation stamp for this filesystem
setGroup(String) - 类 中的方法org.apache.hadoop.fs.FileStatus
Sets group.
setGroupingComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Define the comparator that controls which keys are grouped together for a single call to Reducer.reduce(Object, Iterable, org.apache.hadoop.mapreduce.Reducer.Context)
setHeapUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Set the total heap usage.
setHostName(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
setHosts(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
Set the hosts hosting this block
setID(int) - 类 中的方法org.apache.hadoop.mapred.join.Parser.Node
 
setIfUnset(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
Sets a property if it is currently unset.
setIgnoreFailures(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set if failures during copy be ignored
setIncludeCounters(boolean) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
setIncludesFile(String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
 
setIndexInputFormatClass(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the index input format class.
setIndexInterval(int) - 类 中的方法org.apache.hadoop.io.MapFile.Writer
Sets the index interval.
setIndexInterval(Configuration, int) - 类 中的静态方法org.apache.hadoop.io.MapFile.Writer
Sets the index interval and stores it in conf
setIndexMaxFieldLength(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the max field length for a Lucene instance.
setIndexMaxNumSegments(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the max number of segments for a Lucene instance.
setIndexShards(String) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the string representation of a number of shards.
setIndexShards(IndexUpdateConfiguration, Shard[]) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
 
setIndexUpdaterClass(Class<? extends IIndexUpdater>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the index updater class.
setIndexUseCompoundFile(boolean) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set whether use the compound file format for a Lucene instance.
setInfoPort(int) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
 
setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
 
setInput(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
Sets input data for compression.
setInput(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
Sets input data for decompression.
setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
Sets input data for compression.
setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Sets input data for decompression.
setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
Sets input data for decompression.
setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
 
setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
setInput(JobConf, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBInputFormat
Initializes the map-part of the job with the appropriate input settings.
setInput(JobConf, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBInputFormat
Initializes the map-part of the job with the appropriate input settings.
setInput(Job, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
Note that the "orderBy" column is called the "splitBy" in this version.
setInput(Job, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
setInput() takes a custom query and a separate "bounding query" to use instead of the custom "count query" used by DBInputFormat.
setInput(Job, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
Initializes the map-part of the job with the appropriate input settings.
setInput(Job, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
Initializes the map-part of the job with the appropriate input settings.
setInputBoundingQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputClass(Class<? extends DBWritable>) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputConditions(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputCountQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputDataLength(long) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
setInputDataLocations(String[]) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
setInputFieldNames(String...) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputFormat(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the InputFormat implementation for the map-reduce job.
setInputFormatClass(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the InputFormat for the job.
setInputOrderBy(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputPathFilter(JobConf, Class<? extends PathFilter>) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
Set a PathFilter to be applied to the input paths for the map-reduce job.
setInputPathFilter(Job, Class<? extends PathFilter>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Set a PathFilter to be applied to the input paths for the map-reduce job.
setInputPaths(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
Sets the given comma separated paths as the list of inputs for the map-reduce job.
setInputPaths(JobConf, Path...) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
Set the array of Paths as the list of inputs for the map-reduce job.
setInputPaths(Job, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Sets the given comma separated paths as the list of inputs for the map-reduce job.
setInputPaths(Job, Path...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Set the array of Paths as the list of inputs for the map-reduce job.
setInputQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputSplit(InputSplit) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
setInputTableName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setInputWriterClass(Class<? extends InputWriter>) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Sets the InputWriter class.
setInsert(Document) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Set the instance to be an insert operation.
setInt(String, int) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the value of the name property to an int.
setInteractive(boolean) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
 
setIOSortMB(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the IO sort space in MB.
setIpcPort(int) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
setIsCleanup(boolean) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
Set whether the task is a cleanup attempt or not.
setIsJavaMapper(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Set whether the Mapper is written in Java.
setIsJavaRecordReader(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Set whether the job is using a Java RecordReader.
setIsJavaRecordWriter(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Set whether the job will use a Java RecordWriter.
setIsJavaReducer(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Set whether the Reducer is written in Java.
setIssueDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
setJar(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the user jar for the map-reduce job.
setJarByClass(Class) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the job's jar file by finding an example class location.
setJarByClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the Jar by finding where a given class came from.
setJob(Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Set the mapreduce job
setJobACLs(Map<JobACL, AccessControlList>) - 类 中的方法org.apache.hadoop.mapred.JobStatus
Set the job acls
setJobConf(JobConf) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Set the mapred job conf for this job.
setJobConf() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
setJobEndNotificationURI(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the uri to be invoked in-order to send a notification after the job has completed (success/failure).
setJobFile(String) - 类 中的方法org.apache.hadoop.mapred.Task
 
setJobID(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Set the job ID for this job.
setJobID(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Set the job ID for this job.
setJobName(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the user-specified job name.
setJobName(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Set the job name for this job.
setJobName(String) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the user-specified job name.
setJobName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Set the job name for this job.
setJobPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set JobPriority for this job.
setJobPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobStatus
Set the priority of the job, defaulting to NORMAL.
setJobPriority(JobID, String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
setJobPriority(JobID, String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
setJobPriority(String) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Set the priority of a running job.
setJobState(ControlledJob.State) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Set the state for this job.
setJobToken(Token<? extends TokenIdentifier>, Credentials) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
store job token
setJobTokenSecret(SecretKey) - 类 中的方法org.apache.hadoop.mapred.Task
Set the job token secret
setJvmContext(JvmContext) - 类 中的方法org.apache.hadoop.mapred.Task
Set the task JvmContext
setKeepCommandFile(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
Set whether to keep the command file for debugging
setKeepFailedTaskFiles(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set whether the framework should keep the intermediate files for failed tasks.
setKeepTaskFilesPattern(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set a regular expression for task names that should be kept.
setKeyComparator(Class<? extends WritableComparator>) - 类 中的方法org.apache.hadoop.mapred.join.Parser.Node
 
setKeyFieldComparatorOptions(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the KeyFieldBasedComparator options used to compare keys.
setKeyFieldComparatorOptions(Job, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
Set the KeyFieldBasedComparator options used to compare keys.
setKeyFieldPartitionerOptions(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the KeyFieldBasedPartitioner options used for Partitioner
setKeyFieldPartitionerOptions(Job, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
Set the KeyFieldBasedPartitioner options used for Partitioner
setKeyId(int) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
setKeys(ExportedBlockKeys) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Set block keys, only to be used in slave mode
setKeyValue(Text, Text, byte[], int, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
 
setKind(Text) - 类 中的方法org.apache.hadoop.security.token.Token
Set the token kind.
setLanguage(String) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
Sets the output language option
setLastContact(long) - 类 中的方法org.apache.hadoop.ipc.Server.Connection
 
setLastSeen(long) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
 
setLastUpdate(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Sets time when this information was accurate.
setLeasePeriod(long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
 
setLeftOffset(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
Set the subarray to be used for partitioning to bytes[offset:] in Python syntax.
setLength(long) - 类 中的方法org.apache.hadoop.fs.BlockLocation
Set the length of block
setLevel(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
setLevel(int) - 接口 中的方法org.apache.hadoop.net.Node
Set this node's level in the tree.
setLevel(int) - 类 中的方法org.apache.hadoop.net.NodeBase
Set this node's level in the tree
setLoadNativeLibraries(Configuration, boolean) - 类 中的方法org.apache.hadoop.util.NativeCodeLoader
Set if native hadoop libraries, if present, can be used for this job.
setLocalAnalysisClass(Class<? extends ILocalAnalysis>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
Set the local analysis class.
setLocalArchives(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Set the conf to contain the location for localized archives.
setLocalFiles(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
Set the conf to contain the location for localized files.
setLocalMaxRunningMaps(JobContext, int) - 类 中的静态方法org.apache.hadoop.mapred.LocalJobRunner
Set the max number of map tasks to run concurrently in the LocalJobRunner.
setLogPath(Path) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set the log path where distcp output logs are stored Uses JobStagingDir/_logs by default
setLong(String, long) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the value of the name property to a long.
setLongValue(Object, long) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
Set the given counter to the given value
setMapBandwidth(int) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set per map bandwidth
setMapDebugScript(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the debug script to run when the map tasks fail.
setMapOutputCompressorClass(Class<? extends CompressionCodec>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the given class as the CompressionCodec for the map outputs.
setMapOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the key class for the map output data.
setMapOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the key class for the map output data.
setMapOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the value class for the map output data.
setMapOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the value class for the map output data.
setMapperClass(Class<? extends Mapper>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the Mapper class for the job.
setMapperClass(Class<? extends Mapper>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the Mapper for the job.
setMapperClass(Job, Class<? extends Mapper<K1, V1, K2, V2>>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
Set the application's mapper class.
setMapperMaxSkipRecords(Configuration, long) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Set the number of acceptable skip records surrounding the bad record PER bad record in mapper.
setMapredJobID(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
已过时。
setMapRunnerClass(Class<? extends MapRunnable>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Expert: Set the MapRunnable class for the job.
setMapSlots(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Set the number of map slot for the node.
setMapSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Turn speculative execution on or off for this job for map tasks.
setMapSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
Turn speculative execution on or off for this job for map tasks.
SETMASK - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
setMasterKeyId(int) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
setMaxDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
setMaxInputSplitSize(Job, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Set the maximum split size
setMaxItems(long) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
Set the limit on the number of unique values
setMaxMapAttempts(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Expert: Set the number of maximum attempts that will be made to run a map task.
setMaxMaps(int) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set the max number of maps to use for copy
setMaxMapTaskFailuresPercent(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Expert: Set the maximum percentage of map tasks that can fail without the job being aborted.
setMaxPhysicalMemoryForTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
已过时。
setMaxReduceAttempts(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Expert: Set the number of maximum attempts that will be made to run a reduce task.
setMaxReduceTaskFailuresPercent(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the maximum percentage of reduce tasks that can fail without the job being aborted.
setMaxSplitSize(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
Specify the maximum size (in bytes) of each split.
setMaxSplitSize(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
Specify the maximum size (in bytes) of each split.
setMaxTaskFailuresPerTracker(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the maximum no. of failures of a given job per tasktracker.
setMaxVirtualMemoryForTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
setMemory(int) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Set the total amount of buffer memory, in bytes.
setMemory(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Set the physical memory of the node.
setMemoryForMapTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
 
setMemoryForReduceTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
 
setMemoryPerMapSlot(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Set the amount of RAM reserved for each map slot.
setMemoryPerReduceSlot(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Set the amount of RAM reserved for each reduce slot.
setMessage(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Set the message for this job.
setMessage(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Set the message for this job.
setMetric(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named metric to the specified value.
setMetric(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named metric to the specified value.
setMetric(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named metric to the specified value.
setMetric(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named metric to the specified value.
setMetric(String, float) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named metric to the specified value.
setMetric(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named metric to the specified value.
setMetric(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named metric to the specified value.
setMetric(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named metric to the specified value.
setMetric(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named metric to the specified value.
setMetric(String, float) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named metric to the specified value.
setMinInputSplitSize(Job, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
Set the minimum input split size
setMinSplitSize(long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
 
setMinSplitSizeNode(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
Specify the minimum size (in bytes) of each split per node.
setMinSplitSizeNode(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
Specify the minimum size (in bytes) of each split per node.
setMinSplitSizeRack(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
Specify the minimum size (in bytes) of each split per rack.
setMinSplitSizeRack(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
Specify the minimum size (in bytes) of each split per rack.
setName(String) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
setName(Class, String) - 类 中的静态方法org.apache.hadoop.io.WritableName
Set the name that a class should be known as to something other than the class name.
setName(String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
set the name of the record
setNames(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
Set the names (host:port) hosting this block
setNamesystem(FSNamesystem) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
setNetworkLocation(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Sets the network location
setNetworkLocation(String) - 接口 中的方法org.apache.hadoop.net.Node
Set the node's network location
setNetworkLocation(String) - 类 中的方法org.apache.hadoop.net.NodeBase
Set this node's network location
setNewStorageID(DatanodeRegistration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
setNext(LightWeightGSet.LinkedElement) - 接口 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet.LinkedElement
Set the next element.
setNextRecordRange(SortedRanges.Range) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
Set the next record range which is going to be processed by Task.
setNodeReplicationLimit(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
setNumberOfThreads(Job, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
Set the number of threads in the pool for running maps.
setNumBytes(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
setNumCores(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Set the number of cores for the node.
setNumLinesPerSplit(Job, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
Set the number of lines per split
setNumMapTasks(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the number of map tasks for this job.
setNumReduceTasks(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the requisite number of reduce tasks for this job.
setNumReduceTasks(int) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the number of reduce tasks for the job.
setNumTasksToExecutePerJvm(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
Sets the number of tasks that a spawned task JVM should run before it exits
setOffset(long) - 类 中的方法org.apache.hadoop.fs.BlockLocation
Set the start offset of file associated with this block
setOffsets(Configuration, int, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
Set the subarray to be used for partitioning to bytes[left:(right+1)] in Python syntax.
setOp(DocumentAndOp.Op) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
Set the type of the operation.
setOutput(JobConf, String, String...) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
Initializes the reduce-part of the job with the appropriate output settings
setOutput(Job, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
Initializes the reduce-part of the job with the appropriate output settings
setOutput(Job, String, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
Initializes the reduce-part of the job with the appropriate output settings
setOutputCommitter(Class<? extends OutputCommitter>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the OutputCommitter implementation for the map-reduce job.
setOutputCompressionType(JobConf, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
setOutputCompressionType(Job, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
setOutputCompressorClass(JobConf, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Set the CompressionCodec to be used to compress job outputs.
setOutputCompressorClass(Job, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Set the CompressionCodec to be used to compress job outputs.
setOutputFieldCount(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setOutputFieldNames(String...) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setOutputFormat(Class<? extends OutputFormat>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the OutputFormat implementation for the map-reduce job.
setOutputFormatClass(Class<? extends OutputFormat>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the OutputFormat for the job.
setOutputFormatClass(Job, Class<? extends OutputFormat>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
Set the underlying output format for LazyOutputFormat.
setOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the key class for the job output data.
setOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the key class for the job output data.
setOutputKeyClass(Class) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Sets the output key class class.
setOutputKeyComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the RawComparator comparator used to compare keys.
setOutputName(JobContext, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Set the base output name for output file to be created.
setOutputPath(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
Set the Path of the output directory for the map-reduce job.
setOutputPath(Job, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
Set the Path of the output directory for the map-reduce job.
setOutputReaderClass(Class<? extends OutputReader>) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Sets the OutputReader class.
setOutputTableName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
 
setOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the value class for job outputs.
setOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the value class for job outputs.
setOutputValueClass(Class) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
Sets the output value class.
setOutputValueGroupingComparator(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the user defined RawComparator comparator for grouping keys in the input to the reduce.
setOverwrite(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set if files should always be overwritten on target
setOwner(String) - 类 中的方法org.apache.hadoop.fs.FileStatus
Sets owner.
setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.FileSystem
Set owner of a path (i.e. a file or a directory).
setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Set owner of a path (i.e. a file or a directory).
setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
not implemented.
setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Use the command chown to set owner.
setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Set file or directory owner.
setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Set owner of a path (i.e. a file or a directory).
setOwner(String, String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Set owner of a path (i.e. a file or a directory).
setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Set owner for an existing file.
setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Set owner of a path (i.e. a file or a directory).
setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
setParent(Node) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
setParent(Node) - 接口 中的方法org.apache.hadoop.net.Node
Set this node's parent
setParent(Node) - 类 中的方法org.apache.hadoop.net.NodeBase
Set this node's parent
setPartitionerClass(Class<? extends Partitioner>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the Partitioner class used to partition Mapper-outputs to be sent to the Reducers.
setPartitionerClass(Class<? extends Partitioner>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the Partitioner for the job.
setPartitionFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
Set the path to the SequenceFile storing the sorted partition keyset.
setPartitionFile(Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
Set the path to the SequenceFile storing the sorted partition keyset.
setPathName(String) - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.QuotaExceededException
 
setPattern(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
Define the filtering regex and stores it in conf
setPattern(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
Define the filtering regex and stores it in conf
setPeriod(int) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Sets the timer period
setPermission(FsPermission) - 类 中的方法org.apache.hadoop.fs.FileStatus
Sets permission.
setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FileSystem
Set permission of a path.
setPermission(File, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Set permissions to the required value.
setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Set permission of a path.
setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
Not implemented.
setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Use the command chmod to set permission.
setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Set permissions to a file or directory.
setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Set permission of a path.
setPermission(String, FsPermission) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Set permissions for an existing file/directory.
setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Set permissions for an existing file.
setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Set permissions for an existing file/directory.
setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
setPhase(TaskStatus.Phase) - 类 中的方法org.apache.hadoop.mapred.Task
Set current phase of the task.
setPhysicalMemoryUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Set the physical memory usage.
setPingInterval(Configuration, int) - 类 中的静态方法org.apache.hadoop.ipc.Client
set the ping interval value in configuration
setPrinter(DancingLinks.SolutionAcceptor<Pentomino.ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
Set the printer for the puzzle.
setPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
setProfileEnabled(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set whether the system should collect profiler information for some of the tasks in this job?
setProfileParams(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the profiler configuration arguments.
setProfileTaskRange(boolean, String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the ranges of maps or reduces to profile. setProfileEnabled(true) must also be called.
setProgress(float) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
setProgress(float) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
setProgressable(Progressable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Set the progressable object in order to report progress.
setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the name of the queue to which this job should be submitted.
setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
Set the queue name of the JobQueueInfo
setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
 
setQueueState(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
Set the state of the queue
setQuietMode(boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the quietness-mode.
setQuota(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Set a directory's quotas
setQuota(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Set the quota for a directory.
setQuota(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Set the quota for a directory.
setReduceDebugScript(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the debug script to run when the reduce tasks fail.
setReducer(JobConf, Class<? extends Reducer<K1, V1, K2, V2>>, Class<? extends K1>, Class<? extends V1>, Class<? extends K2>, Class<? extends V2>, boolean, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.ChainReducer
Sets the Reducer class to the chain job's JobConf.
setReducerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the Reducer class for the job.
setReducerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the Reducer for the job.
setReducerMaxSkipGroups(Configuration, long) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Set the number of acceptable skip groups surrounding the bad group PER bad group in reducer.
setReduceSlots(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
Set the number of reduce slot for the node.
setReduceSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Turn speculative execution on or off for this job for reduce tasks.
setReduceSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
Turn speculative execution on or off for this job for reduce tasks.
setRemaining(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Sets raw free space.
setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Set replication for an existing file.
setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.FileSystem
Set replication for an existing file.
setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Set replication for an existing file.
setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
Not implemented.
setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Set replication for an existing file.
setReplication(Path, short) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
setReplication(String, short) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Set replication for an existing file.
setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Set replication for an existing file.
setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Set replication for an existing file.
setReplication(Path, short) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
setRetryPolicy(RetryPolicy) - 类 中的方法org.apache.hadoop.tools.distcp2.util.RetriableCommand
Fluent-interface to change the RetryHandler.
setRightOffset(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
Set the subarray to be used for partitioning to bytes[:(offset+1)] in Python syntax.
setRpcServiceServerAddress(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Modifies the configuration passed to contain the service rpc address setting
setRules(String) - 类 中的静态方法org.apache.hadoop.security.KerberosName
Set the rules.
setRunningTaskAttempts(Collection<TaskAttemptID>) - 类 中的方法org.apache.hadoop.mapred.TaskReport
set running attempt(s) of the task.
setRunState(int) - 类 中的方法org.apache.hadoop.mapred.JobStatus
Change the current run state of the job.
setRunState(TaskStatus.State) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
Enter, leave or get safe mode.
setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
Enter, leave or get safe mode.
setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Enter, leave or get safe mode.
setSafeMode(FSConstants.SafeModeAction) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Enter, leave or get safe mode.
setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
setSafeMode(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Safe mode maintenance command.
setSafeMode(JobTracker.SafeModeAction) - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
Set safe mode for the JobTracker.
setSafeMode(JobTracker.SafeModeAction) - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
setSafeModeTime(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
setSchedulingInfo(Object) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
setSchedulingInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
Set the scheduling information associated to particular job queue
setSchedulingInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobStatus
Used to set the scheduling information associated to a particular Job.
setSequenceFileOutputKeyClass(JobConf, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
Set the key class for the SequenceFile This allows the user to specify the key class to be different from the actual class (BytesWritable) used for writing
setSequenceFileOutputKeyClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
Set the key class for the SequenceFile This allows the user to specify the key class to be different from the actual class (BytesWritable) used for writing
setSequenceFileOutputValueClass(JobConf, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
Set the value class for the SequenceFile This allows the user to specify the value class to be different from the actual class (BytesWritable) used for writing
setSequenceFileOutputValueClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
Set the value class for the SequenceFile This allows the user to specify the value class to be different from the actual class (BytesWritable) used for writing
setSequenceNumber(int) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
setService(Text) - 类 中的方法org.apache.hadoop.security.token.Token
Set the service on which the token is supposed to be used
setServiceAddress(Configuration, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
Set the configuration property for the service rpc address to address
setSessionId(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the user-specified session identifier.
setSessionTimeZone(Configuration, Connection) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
Set session time zone
setSize(int) - 类 中的方法org.apache.hadoop.io.BytesWritable
Change the size of the buffer.
setSizes(long[]) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
 
setSkipCRC(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set if checksum comparison should be skipped while determining if source and destination files are identical
setSkipOutputPath(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
Set the directory to which skipped records are written.
setSkipping(boolean) - 类 中的方法org.apache.hadoop.mapred.Task
Sets whether to run Task in skipping mode.
setSkipRanges(SortedRanges) - 类 中的方法org.apache.hadoop.mapred.Task
Set skipRanges.
setSocketSendBufSize(int) - 类 中的方法org.apache.hadoop.ipc.Server
Sets the socket buffer size used for responding to RPCs
setSortComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapreduce.Job
Define the comparator that controls how the keys are sorted before they are passed to the Reducer.
setSourcePaths(List<Path>) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Setter for sourcePaths.
setSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Turn speculative execution on or off for this job.
setSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
Turn speculative execution on or off for this job.
setSslConfigurationFile(String) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set the SSL configuration file path to use with hftps:// (local path)
setStamp(long) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
Sets the current generation stamp
setStart(long) - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
 
setState(int) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Set the state for this job.
setStatement(PreparedStatement) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
setStateString(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
setStatus(String) - 接口 中的方法org.apache.hadoop.mapred.Reporter
Set the status description for the task.
setStatus(String) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
setStatus(TaskTrackerStatus) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Set the current TaskTrackerStatus of the TaskTracker.
setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
 
setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
Set the current status of the task to the given string.
setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
 
setStatus(String) - 类 中的方法org.apache.hadoop.util.Progress
 
setStorageID(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
sets the data storage ID.
setStorageInfo(StorageInfo) - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
 
setStorageInfo(DataStorage) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
setStrings(String, String...) - 类 中的方法org.apache.hadoop.conf.Configuration
Set the array of string values for the name property as as comma delimited values.
setSuccessfulAttempt(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskReport
set successful attempt ID of the task.
setSyncFolder(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Set if source and target folder contents be sync'ed up
setTabSize(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
setTag(Text) - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
 
setTag(String, String) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named tag to the specified value.
setTag(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named tag to the specified value.
setTag(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named tag to the specified value.
setTag(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named tag to the specified value.
setTag(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Sets the named tag to the specified value.
setTag(String, String) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named tag to the specified value.
setTag(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named tag to the specified value.
setTag(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named tag to the specified value.
setTag(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named tag to the specified value.
setTag(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Sets the named tag to the specified value.
setTaskId(String) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
setTaskID(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Sets task id.
setTaskId(String) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
 
setTaskOutputFilter(JobClient.TaskStatusFilter) - 类 中的方法org.apache.hadoop.mapred.JobClient
已过时。
setTaskOutputFilter(JobConf, JobClient.TaskStatusFilter) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
Modify the JobConf to set the task output filter.
setTaskRunTime(int) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Set the task completion time
setTaskStatus(TaskCompletionEvent.Status) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Set task status.
setTaskTracker(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
setTaskTrackerHttp(String) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
Set task tracker http location.
setThreads(int, int) - 类 中的方法org.apache.hadoop.http.HttpServer
Set the min, max number of worker threads (simultaneous connections).
setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
Set access time of a file
setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
set the modification and access time of a file
setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
Set access time of a file
setTimes(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
Sets the modification and access time of the file to the specified time.
setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
stores the modification and access time for this inode.
setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
setTokenLifetime(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
set token lifetime.
setTokenService(Token<?>, InetSocketAddress) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
Set the given token's service to the format expected by the RPC client
setTopologyPaths(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
Set the network topology paths of the hosts
setTotalLogFileSize(long) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
 
setUMask(Configuration, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
Set the user file creation mask (umask)
setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
 
setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedLocation
 
setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
 
setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
 
setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
 
setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
 
setup(LocalDirAllocator, TaskTracker.LocalStorage) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
 
setup(LocalDirAllocator, TaskTracker.LocalStorage) - 类 中的方法org.apache.hadoop.mapred.TaskController
Does initialization and setup.
setup(Mapper<K, V, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
 
setup(Reducer<Text, Text, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
 
setup(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingMapper
 
setup(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
Called once at the beginning of the task.
setup(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
Called once at the start of the task.
setup(Mapper<Text, FileStatus, Text, Text>.Context) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper
Implementation of the Mapper::setup() method.
setupCache(Configuration, String, String) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
Retrieve public distributed cache files into the local cache and updates the task configuration (which has been passed in via the constructor).
setUpdate(Document, Term) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
Set the instance to be an update operation.
setUpgradeState(boolean, int) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
 
setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
For the framework to setup the job output during initialization
setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
This method implements the new interface by calling the old method.
setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Create the temporary directory that is the root of all of the task work directories.
setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
For the framework to setup the job output during initialization
setupJobConf(int, int, long, int, long, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
 
setupProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
setupProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Get the progress of the job's setup-tasks, as a float between 0.0 and 1.0.
setupProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
Get the progress of the job's setup, as a float between 0.0 and 1.0.
setupSsl(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
Set up SSL resources
setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
 
setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
Sets up output for the task.
setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
This method implements the new interface by calling the old method.
setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
No task setup required.
setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
Sets up output for the task.
setURL(URL) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
 
setUseNewMapper(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set whether the framework should use the new api for the mapper.
setUseNewReducer(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set whether the framework should use the new api for the reducer.
setUser(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the reported username for this job.
setValue(long) - 类 中的方法org.apache.hadoop.mapreduce.Counter
Set this counter by the given value
setValue(Object) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
Set the typed bytes from a given Java object.
setVerbose(boolean) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
 
setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
Set whether to verify checksum.
setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.FileSystem
Set the verify checksum flag.
setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Set the verify checksum flag.
setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
setVirtualMemoryUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Set the virtual memory usage.
setVisibleLength(Block, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
setVisibleLength(Block, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
update the specified blocks visible meta data.
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Set the current working directory for the given file system.
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Set the current working directory for the given file system.
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
 
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
 
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
Set the working directory to the given directory.
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
 
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
Set the working directory to the given directory.
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.mapred.JobConf
Set the current working directory for the default file system.
setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.mapreduce.Job
Set the current working directory for the default file system.
setWorkingDirectory(Job, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
Setter for the working directory for DistCp (where files will be copied before they are moved to the final commit-directory.)
setWorkingDirectory(File) - 类 中的方法org.apache.hadoop.util.Shell
set the working directory
setWriter(IFile.Writer<K, V>) - 类 中的方法org.apache.hadoop.mapred.Task.CombineOutputCollector
 
setWriteSkipRecs(boolean) - 类 中的方法org.apache.hadoop.mapred.Task
Set whether to write skip records.
setXceiverCount(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Sets number of active connections
Shard - org.apache.hadoop.contrib.index.mapred中的类
This class represents the metadata of a shard.
Shard() - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
Constructor.
Shard(long, String, long) - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
Construct a shard from a versio number, a directory and a generation number.
Shard(Shard) - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
Construct using a shard object.
ShardWriter - org.apache.hadoop.contrib.index.lucene中的类
The initial version of an index is stored in the perm dir.
ShardWriter(FileSystem, Shard, String, IndexUpdateConfiguration) - 类 的构造器org.apache.hadoop.contrib.index.lucene.ShardWriter
Constructor
Shell - org.apache.hadoop.util中的类
A base class for running a Unix command.
Shell() - 类 的构造器org.apache.hadoop.util.Shell
 
Shell(long) - 类 的构造器org.apache.hadoop.util.Shell
 
Shell.ExitCodeException - org.apache.hadoop.util中的异常错误
This is an IOException with exit code added.
Shell.ExitCodeException(int, String) - 异常错误 的构造器org.apache.hadoop.util.Shell.ExitCodeException
 
Shell.ShellCommandExecutor - org.apache.hadoop.util中的类
A simple shell command executor.
Shell.ShellCommandExecutor(String[]) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
 
Shell.ShellCommandExecutor(String[], File) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
 
Shell.ShellCommandExecutor(String[], File, Map<String, String>) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
 
Shell.ShellCommandExecutor(String[], File, Map<String, String>, long) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
Create a new instance of the ShellCommandExecutor to execute a command.
ShellBasedUnixGroupsMapping - org.apache.hadoop.security中的类
A simple shell-based implementation of GroupMappingServiceProvider that exec's the groups shell command to fetch the group memberships of a given user.
ShellBasedUnixGroupsMapping() - 类 的构造器org.apache.hadoop.security.ShellBasedUnixGroupsMapping
 
ShellBasedUnixGroupsNetgroupMapping - org.apache.hadoop.security中的类
A simple shell-based implementation of GroupMappingServiceProvider that exec's the groups shell command to fetch the group memberships of a given user.
ShellBasedUnixGroupsNetgroupMapping() - 类 的构造器org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
shippedCanonFiles_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
shouldAtomicCommit() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Should the data be committed atomically?
shouldAvoidStaleDataNodesForWrite() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSClusterStats
Indicate whether or not the cluster is now avoiding to use stale DataNodes for writing.
shouldAvoidStaleDataNodesForWrite() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
shouldBlock() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Should DistCp be running in blocking mode
shouldCopy(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
Provide an option to skip copy of a path, Allows for exclusion of files such as FileOutputCommitter.SUCCEEDED_FILE_NAME
shouldDeleteMissing() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Should target files missing in source should be deleted?
shouldDie() - 类 中的方法org.apache.hadoop.mapred.JvmTask
 
shouldIgnoreFailures() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Should failures be logged and ignored during copy?
shouldOverwrite() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Should files be overwritten always?
shouldPreserve(DistCpOptions.FileAttribute) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Checks if the input attibute should be preserved or not
shouldPreserveInput() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
 
shouldReset() - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
 
shouldRetry(Exception, int) - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
 
shouldRetry(Exception, int) - 接口 中的方法org.apache.hadoop.io.retry.RetryPolicy
Determines whether the framework should retry a method for the given exception, and the number of retries that have been made for that operation so far.
shouldSkipCRC() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Should CRC/checksum check be skipped while checking files are identical
shouldSyncFolder() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Should the data be sync'ed between source and target paths?
shouldTruncateLogs(JVMInfo) - 类 中的方法org.apache.hadoop.mapred.TaskLogsTruncater
Check the log file sizes generated by the attempts that ran in a particular JVM
shuffleError(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
A reduce-task failed to shuffle the map-outputs.
shuffleError(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report that a reduce-task couldn't shuffle map-outputs.
ShuffleExceptionTracker - org.apache.hadoop.mapred中的类
This class is used to track shuffle exceptions.
shutdown() - 类 中的方法org.apache.hadoop.fs.DU
Shut down the refreshing thread.
shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Shut down this instance of the datanode.
shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
shutdown() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Shutdown the FSDataset
shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
 
shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
shutdown FSNamesystem
shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
 
shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
Shut down this instance of the datanode.
shutdown() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
Shutdown the instrumentation for the process
shutdown() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
Shutsdown the history server if already initialized
shutdown() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
shutdown() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
shutdown() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
shutdown() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
Shutdown the metrics system completely (usually during server shutdown.)
sign(String) - 类 中的方法org.apache.hadoop.security.authentication.util.Signer
Returns a signed string.
signalTask(String, int, ProcessTree.Signal) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
 
signalTask(String, int, ProcessTree.Signal) - 类 中的方法org.apache.hadoop.mapred.TaskController
Send a signal to a task pid as the user.
SIGNATURE_SECRET - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
Constant for the property that specifies the secret to use for signing the HTTP Cookies.
Signer - org.apache.hadoop.security.authentication.util中的类
Signs strings and verifies signed strings using a SHA digest.
Signer(byte[]) - 类 的构造器org.apache.hadoop.security.authentication.util.Signer
Creates a Signer instance using the specified secret.
SignerException - org.apache.hadoop.security.authentication.util中的异常错误
Exception thrown by Signer when a string signature is invalid.
SignerException(String) - 异常错误 的构造器org.apache.hadoop.security.authentication.util.SignerException
Creates an exception instance.
SimpleCharStream - org.apache.hadoop.record.compiler.generated中的类
An implementation of interface CharStream, where the stream is assumed to contain only ASCII characters (without unicode processing).
SimpleCharStream(Reader, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(Reader, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(Reader) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(InputStream, String, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(InputStream, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(InputStream, String, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(InputStream, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(InputStream, String) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCharStream(InputStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
SimpleCopyListing - org.apache.hadoop.tools.distcp2中的类
The SimpleCopyListing is responsible for making the exhaustive list of all files/directories under its specified list of input-paths.
SimpleCopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.SimpleCopyListing
Protected constructor, to initialize configuration.
simpleHostname(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Given a full hostname, return the word upto the first dot.
size() - 类 中的方法org.apache.hadoop.conf.Configuration
Return the number of keys in the configuration.
size() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
 
size() - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
 
size() - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
 
size() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
size() - 类 中的方法org.apache.hadoop.io.file.tfile.ByteArray
 
size() - 接口 中的方法org.apache.hadoop.io.file.tfile.RawComparable
Get the size of the byte range in the byte array.
size() - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils.Version
Get the size of the serialized Version object.
size() - 类 中的方法org.apache.hadoop.io.MapWritable
size() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
size() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
Returns the number of counters in this group.
size() - 类 中的方法org.apache.hadoop.mapred.Counters
Returns the total number of counters, by summing the number of counters in each group.
size() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
The number of children in this Tuple.
size() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
Returns the number of counters in this group.
size() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
已过时。
 
size() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
Returns the size of the serialized data
size() - 类 中的方法org.apache.hadoop.util.PriorityQueue
Returns the number of elements currently stored in the PriorityQueue.
SIZE_OF_INTEGER - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
SIZE_OF_INTEGER - 类 中的静态变量org.apache.hadoop.util.DataChecksum
 
SIZE_UNKNOWN - 类 中的静态变量org.apache.hadoop.fs.LocalDirAllocator
Used when size of file to be allocated is unknown.
skip(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
 
skip(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
Skips over and discards n bytes of data from the input stream.
skip(long) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
 
skip(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
 
skip(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
 
skip(long) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
 
skip(DataInput) - 类 中的静态方法org.apache.hadoop.io.Text
Skips over one Text in the input.
skip(DataInput) - 类 中的静态方法org.apache.hadoop.io.UTF8
已过时。
Skips over one UTF8 in the input.
skip(K) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
Skip key-value pairs with keys less than or equal to the key provided.
skip(K) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
Pass skip key to child RRs.
skip(K) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
Skip key-value pairs with keys less than or equal to the key provided.
skip(RecordInput, String, TypeID) - 类 中的静态方法org.apache.hadoop.record.meta.Utils
read/skip bytes from stream based on a type
skip(long) - 类 中的方法org.apache.hadoop.security.SaslInputStream
Skips n bytes of input from the bytes that can be read from this input stream without blocking.
SkipBadRecords - org.apache.hadoop.mapred中的类
Utility class for skip bad records functionality.
SkipBadRecords() - 类 的构造器org.apache.hadoop.mapred.SkipBadRecords
 
skipCompressedByteArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
skipFully(InputStream, long) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Similar to readFully().
skipFully(DataInput, int) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Skip len number of bytes in input streamin
skipToNextMarker(long, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
This method tries to find the marker (passed to it as the first parameter) in the stream.
skipType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
Skips a type byte.
SleepJob - org.apache.hadoop.examples中的类
Dummy class for testing MR framefork.
SleepJob() - 类 的构造器org.apache.hadoop.examples.SleepJob
 
SleepJob.EmptySplit - org.apache.hadoop.examples中的类
 
SleepJob.EmptySplit() - 类 的构造器org.apache.hadoop.examples.SleepJob.EmptySplit
 
SleepJob.SleepInputFormat - org.apache.hadoop.examples中的类
 
SleepJob.SleepInputFormat() - 类 的构造器org.apache.hadoop.examples.SleepJob.SleepInputFormat
 
SMALL_BUFFER_SIZE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
 
SMALL_THRESH - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
SnappyCodec - org.apache.hadoop.io.compress中的类
This class creates snappy compressors/decompressors.
SnappyCodec() - 类 的构造器org.apache.hadoop.io.compress.SnappyCodec
 
SnappyCompressor - org.apache.hadoop.io.compress.snappy中的类
A Compressor based on the snappy compression algorithm.
SnappyCompressor(int) - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyCompressor
Creates a new compressor.
SnappyCompressor() - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyCompressor
Creates a new compressor with the default buffer size.
SnappyDecompressor - org.apache.hadoop.io.compress.snappy中的类
A Decompressor based on the snappy compression algorithm.
SnappyDecompressor(int) - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Creates a new compressor.
SnappyDecompressor() - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyDecompressor
Creates a new decompressor with the default buffer size.
snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
Get a snapshot/snapshot of the metric
snapshot(MetricsRecordBuilder) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
Get a sampe/snapshot of metric if changed
snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
 
snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
 
snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
 
snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
 
snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
 
snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Sample all the mutable metrics and put the snapshot in the builder
SocketInputStream - org.apache.hadoop.net中的类
This implements an input stream that can have a timeout while reading.
SocketInputStream(ReadableByteChannel, long) - 类 的构造器org.apache.hadoop.net.SocketInputStream
Create a new input stream with the given timeout.
SocketInputStream(Socket, long) - 类 的构造器org.apache.hadoop.net.SocketInputStream
Same as SocketInputStream(socket.getChannel(), timeout):

Create a new input stream with the given timeout.
SocketInputStream(Socket) - 类 的构造器org.apache.hadoop.net.SocketInputStream
Same as SocketInputStream(socket.getChannel(), socket.getSoTimeout()) :

Create a new input stream with the given timeout.
SocketOutputStream - org.apache.hadoop.net中的类
This implements an output stream that can have a timeout while writing.
SocketOutputStream(WritableByteChannel, long) - 类 的构造器org.apache.hadoop.net.SocketOutputStream
Create a new ouput stream with the given timeout.
SocketOutputStream(Socket, long) - 类 的构造器org.apache.hadoop.net.SocketOutputStream
Same as SocketOutputStream(socket.getChannel(), timeout):

Create a new ouput stream with the given timeout.
SocksSocketFactory - org.apache.hadoop.net中的类
Specialized SocketFactory to create sockets with a SOCKS proxy
SocksSocketFactory() - 类 的构造器org.apache.hadoop.net.SocksSocketFactory
Default empty constructor (for use with the reflection API).
SocksSocketFactory(Proxy) - 类 的构造器org.apache.hadoop.net.SocksSocketFactory
Constructor with a supplied Proxy
solution(List<List<ColumnName>>) - 接口 中的方法org.apache.hadoop.examples.dancing.DancingLinks.SolutionAcceptor
A callback to return a solution to the application.
solve(int[], DancingLinks.SolutionAcceptor<ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Given a prefix, find solutions under it.
solve(DancingLinks.SolutionAcceptor<ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Solve a complete problem
solve(int[]) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
Find all of the solutions that start with the given prefix.
solve() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
Find all of the solutions to the puzzle.
solve() - 类 中的方法org.apache.hadoop.examples.dancing.Sudoku
 
Sort<K,V> - org.apache.hadoop.examples中的类
This is the trivial map/reduce program that does absolutely nothing other than use the framework to fragment and sort the input values.
Sort() - 类 的构造器org.apache.hadoop.examples.Sort
 
sort(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Perform a file sort from a set of input files into an output file.
sort(Path, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
The backwards compatible interface to sort.
sort(IndexedSortable, int, int) - 类 中的方法org.apache.hadoop.util.HeapSort
Sort the given range of items using heap sort.
sort(IndexedSortable, int, int, Progressable) - 类 中的方法org.apache.hadoop.util.HeapSort
Same as IndexedSorter.sort(IndexedSortable,int,int), but indicate progress periodically.
sort(IndexedSortable, int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSorter
Sort the items accessed through the given IndexedSortable over the given range of logical indices.
sort(IndexedSortable, int, int, Progressable) - 接口 中的方法org.apache.hadoop.util.IndexedSorter
Same as IndexedSorter.sort(IndexedSortable,int,int), but indicate progress periodically.
sort(IndexedSortable, int, int) - 类 中的方法org.apache.hadoop.util.QuickSort
Sort the given range of items using quick sort.
sort(IndexedSortable, int, int, Progressable) - 类 中的方法org.apache.hadoop.util.QuickSort
Same as IndexedSorter.sort(IndexedSortable,int,int), but indicate progress periodically.
sortAndIterate(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Perform a file sort from a set of input files and return an iterator.
SortedMapWritable - org.apache.hadoop.io中的类
A Writable SortedMap.
SortedMapWritable() - 类 的构造器org.apache.hadoop.io.SortedMapWritable
default constructor.
SortedMapWritable(SortedMapWritable) - 类 的构造器org.apache.hadoop.io.SortedMapWritable
Copy constructor.
sortListing(FileSystem, Configuration, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Sort sequence file containing FileStatus and Text as key and value respecitvely
sortNodeList(ArrayList<DatanodeDescriptor>, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
SOURCE_TAGS_FIELD - 类 中的静态变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
 
specialConstructor - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
This variable determines which constructor was used to create this object and thereby affects the semantics of the "getMessage" method (see below).
specialToken - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
This field is used to access special tokens that occur prior to this token, but after the immediately preceding regular (non-special) token.
specToString(String, String, int, List<Integer>, List<Integer>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
 
spilledRecordsCounter - 类 中的变量org.apache.hadoop.mapred.Task
 
split(int) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
Generate a list of row choices to cover the first moves.
split - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
 
split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BigDecimalSplitter
 
split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BooleanSplitter
 
split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DateSplitter
 
split(Configuration, ResultSet, String) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBSplitter
Given a ResultSet containing one record (and already advanced to that record) with two columns (a low value, and a high value, both of the same type), determine a set of splits that span the given values.
split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.FloatSplitter
 
split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.IntegerSplitter
 
split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.TextSplitter
This method needs to determine the splits between two user-provided strings.
split - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
 
split(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Split a string using the default separator
split(String, char, char) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Split a string using the given separator
SPLIT_MINSIZE_PERNODE - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
 
SPLIT_MINSIZE_PERRACK - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
 
SplitCompressionInputStream - org.apache.hadoop.io.compress中的类
An InputStream covering a range of compressed data.
SplitCompressionInputStream(InputStream, long, long) - 类 的构造器org.apache.hadoop.io.compress.SplitCompressionInputStream
 
splitKerberosName(String) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
Splitting fully qualified Kerberos name into parts
splitKeyVal(byte[], int, int, Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
split a UTF-8 byte array into key and value assuming that the delimilator is at splitpos.
splitKeyVal(byte[], int, int, Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
split a UTF-8 byte array into key and value assuming that the delimilator is at splitpos.
splitKeyVal(byte[], Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
split a UTF-8 byte array into key and value assuming that the delimilator is at splitpos.
splitKeyVal(byte[], Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
split a UTF-8 byte array into key and value assuming that the delimilator is at splitpos.
splitKeyVal(byte[], int, int, Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
splitKeyVal(byte[], int, int, Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
splitKeyVal(byte[], Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
splitKeyVal(byte[], Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
SplitMetaInfoReader - org.apache.hadoop.mapreduce.split中的类
A (internal) utility that reads the split meta info and creates split meta info objects
SplitMetaInfoReader() - 类 的构造器org.apache.hadoop.mapreduce.split.SplitMetaInfoReader
 
splitNodesWithRack(Collection<DatanodeDescriptor>, Map<String, List<DatanodeDescriptor>>, List<DatanodeDescriptor>, List<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
Split data nodes into two sets, one set includes nodes on rack with more than one replica, the other set contains the remaining nodes.
SplittableCompressionCodec - org.apache.hadoop.io.compress中的接口
This interface is meant to be implemented by those compression codecs which are capable to compress / decompress a stream starting at any arbitrary position.
SplittableCompressionCodec.READ_MODE - org.apache.hadoop.io.compress中的枚举
During decompression, data can be read off from the decompressor in two modes, namely continuous and blocked.
SPNEGO_FILTER - 类 中的静态变量org.apache.hadoop.http.HttpServer
 
stallReplicationWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
StandardSocketFactory - org.apache.hadoop.net中的类
Specialized SocketFactory to create sockets with a SOCKS proxy
StandardSocketFactory() - 类 的构造器org.apache.hadoop.net.StandardSocketFactory
Default empty constructor (for use with the reflection API).
start() - 类 中的方法org.apache.hadoop.fs.DU
Start the disk usage checking thread.
start() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
 
start() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
 
start() - 类 中的方法org.apache.hadoop.http.HttpServer
Start the server.
start() - 类 中的方法org.apache.hadoop.ipc.Server
Starts the service.
start() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
 
start() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
Starts managing the logs
start() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
start() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
start() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
Start the metrics system
start(Object) - 接口 中的方法org.apache.hadoop.util.ServicePlugin
This method is invoked when the service instance has been started.
startBlockRecovery(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
startBlockRecovery(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
startBlockRecovery(long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
 
startBlockRecovery(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
Begin recovery on a block - this interrupts writers and returns the necessary metadata for recovery to begin.
startCleanupThread() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Start the background thread
startCommunicationThread() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
startCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
 
startDecommission() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Start decommissioning a node.
startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
 
startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
Returns a local File that the user can write output to.
startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
Returns a local File that the user can write output to.
startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
not implemented.
startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
 
startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
startMap(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
startMap(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
startMap(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Check the mark for start of the serialized map.
startMap(TreeMap, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Mark the start of a map to be serialized.
startMap(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
startMap(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
startMonitoring() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
已过时。
Starts or restarts monitoring, by opening in append-mode, the file specified by the fileName attribute, if specified.
startMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Starts or restarts monitoring, the emitting of metrics records as they are updated.
startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Starts or restarts monitoring, the emitting of metrics records.
startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
已过时。
Do-nothing version of startMonitoring
startNextPhase() - 类 中的方法org.apache.hadoop.util.Progress
Called during execution to move to the next phase at this level in the tree.
startNotifier() - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
 
startPos - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
 
startRecord(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
startRecord(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
startRecord(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Check the mark for start of the serialized record.
startRecord(Record, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Mark the start of a record to be serialized.
startRecord(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
startRecord(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
startRecord(Record, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
startThreads() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
should be called before this object is used
startTracker(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
Start the JobTracker with given configuration.
startTracker(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
 
startTracker(JobConf, String, boolean) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
 
startUpgrade() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
Prepare for the upgrade.
startUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
 
startUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
 
startupShutdownMessage(Class<?>, String[], Log) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Print a log message for starting up and shutting down
startVector(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
 
startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
startVector(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
 
startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
startVector(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
Check the mark for start of the serialized vector.
startVector(ArrayList, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Mark the start of a vector to be serialized.
startVector(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
 
startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
startVector(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
 
startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
stat2Paths(FileStatus[]) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
convert an array of FileStatus to an array of Path
stat2Paths(FileStatus[], Path) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
convert an array of FileStatus to an array of Path.
state - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.SaslStatus
 
state - 类 中的变量org.apache.hadoop.tools.rumen.TaskAttemptInfo
 
stateChangeLog - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NameNode
 
statement - 类 中的变量org.apache.hadoop.mapreduce.lib.db.DBRecordReader
 
staticFlag - 类 中的静态变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
StaticUserWebFilter - org.apache.hadoop.http.lib中的类
Provides a servlet filter that pretends to authenticate a fake user (Dr.Who) so that the web UI is usable for a secure cluster without authentication.
StaticUserWebFilter() - 类 的构造器org.apache.hadoop.http.lib.StaticUserWebFilter
 
StaticUserWebFilter.StaticUserFilter - org.apache.hadoop.http.lib中的类
 
StaticUserWebFilter.StaticUserFilter() - 类 的构造器org.apache.hadoop.http.lib.StaticUserWebFilter.StaticUserFilter
 
statistics - 类 中的变量org.apache.hadoop.fs.FileSystem
The statistics for this file system.
status - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeObject
 
StatusReporter - org.apache.hadoop.mapreduce中的类
 
StatusReporter() - 类 的构造器org.apache.hadoop.mapreduce.StatusReporter
 
statusUpdate(TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.Task
 
statusUpdate(TaskAttemptID, TaskStatus, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
Called periodically to report Task progress, from 0.0 to 1.0.
statusUpdate(TaskAttemptID, TaskStatus, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
Report child's progress to parent.
stddev() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
 
stop() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
 
stop() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Stop all NameNode threads and wait for all to finish.
stop() - 类 中的方法org.apache.hadoop.http.HttpServer
stop the server
stop() - 类 中的方法org.apache.hadoop.ipc.Client
Stop all threads related to this client.
stop() - 类 中的方法org.apache.hadoop.ipc.Server
Stops the service.
stop() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
set the thread state to STOPPING so that the thread will stop when it wakes up.
stop() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
set the thread state to STOPPING so that the thread will stop when it wakes up.
stop() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
 
stop() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
 
stop() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
Stop the metrics system
stop() - 接口 中的方法org.apache.hadoop.util.ServicePlugin
This method is invoked when the service instance is about to be shut down.
stopCleanupThread() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
Stop the background thread
stopCommunicationThread() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
 
stopDecommission() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Stop decommissioning a node.
stopDecommission(DatanodeDescriptor) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
Stop decommissioning the specified datanodes.
stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
已过时。
Stops monitoring, closing the file.
stopMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Stops monitoring.
stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Stops monitoring.
stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
stopNotifier() - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
 
stopProxy(VersionedProtocol) - 类 中的静态方法org.apache.hadoop.ipc.RPC
Stop this proxy and release its invoker's resource
stopRunning() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
 
stopThreads() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
 
stopTracker() - 类 中的方法org.apache.hadoop.mapred.JobTracker
 
Storage - org.apache.hadoop.hdfs.server.common中的类
Storage information file.
Storage(HdfsConstants.NodeType) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
Create empty storage info of the specified type
Storage(HdfsConstants.NodeType, int, long) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
 
Storage(HdfsConstants.NodeType, StorageInfo) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
 
Storage.StorageDirectory - org.apache.hadoop.hdfs.server.common中的类
One of the storage directories.
Storage.StorageDirectory(File) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
 
Storage.StorageDirectory(File, Storage.StorageDirType) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
 
Storage.StorageDirType - org.apache.hadoop.hdfs.server.common中的接口
An interface to denote storage directory type Implementations can define a type for storage directory by implementing this interface.
Storage.StorageState - org.apache.hadoop.hdfs.server.common中的枚举
 
STORAGE_DIR_CURRENT - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
 
STORAGE_FILE_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
 
storageDirs - 类 中的变量org.apache.hadoop.hdfs.server.common.Storage
 
storageID - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
 
StorageInfo - org.apache.hadoop.hdfs.server.common中的类
Common class for storage information.
StorageInfo() - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
 
StorageInfo(int, int, long) - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
 
StorageInfo(StorageInfo) - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
 
storageInfo - 类 中的变量org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
store(Configuration, K, String) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
Stores the item in the configuration with the given keyName.
storeArray(Configuration, K[], String) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
Stores the array of items in the configuration with the given keyName.
storeBlock(Block, File) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
storeINode(Path, INode) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
 
StreamBackedIterator<X extends Writable> - org.apache.hadoop.mapred.join中的类
This class provides an implementation of ResetableIterator.
StreamBackedIterator() - 类 的构造器org.apache.hadoop.mapred.join.StreamBackedIterator
 
StreamBaseRecordReader - org.apache.hadoop.streaming中的类
Shared functionality for hadoopStreaming formats.
StreamBaseRecordReader(FSDataInputStream, FileSplit, Reporter, JobConf, FileSystem) - 类 的构造器org.apache.hadoop.streaming.StreamBaseRecordReader
 
streamBlockInAscii(InetSocketAddress, long, Token<BlockTokenIdentifier>, long, long, long, long, JspWriter, Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
 
StreamFile - org.apache.hadoop.hdfs.server.namenode中的类
 
StreamFile() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.StreamFile
 
StreamInputFormat - org.apache.hadoop.streaming中的类
An input format that selects a RecordReader based on a JobConf property.
StreamInputFormat() - 类 的构造器org.apache.hadoop.streaming.StreamInputFormat
 
StreamJob - org.apache.hadoop.streaming中的类
All the client-side work happens here.
StreamJob(String[], boolean) - 类 的构造器org.apache.hadoop.streaming.StreamJob
已过时。
use StreamJob() with ToolRunner or set the Configuration using StreamJob.setConf(Configuration) and run with StreamJob.run(String[]).
StreamJob() - 类 的构造器org.apache.hadoop.streaming.StreamJob
 
StreamKeyValUtil - org.apache.hadoop.streaming中的类
 
StreamKeyValUtil() - 类 的构造器org.apache.hadoop.streaming.StreamKeyValUtil
 
StreamUtil - org.apache.hadoop.streaming中的类
Utilities not available elsewhere in Hadoop.
StreamUtil() - 类 的构造器org.apache.hadoop.streaming.StreamUtil
 
StreamXmlRecordReader - org.apache.hadoop.streaming中的类
A way to interpret XML fragments as Mapper input records.
StreamXmlRecordReader(FSDataInputStream, FileSplit, Reporter, JobConf, FileSystem) - 类 的构造器org.apache.hadoop.streaming.StreamXmlRecordReader
 
STRING - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
string2Bytes(String) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
Converts a string to a byte array using UTF8 encoding.
string2ChunkSizeToView(String, int) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
Convert a String to chunk-size-to-view.
string2long(String) - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
Convert a string to long.
STRING_VALUE_MAX - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
STRING_VALUE_MIN - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
Stringifier<T> - org.apache.hadoop.io中的接口
Stringifier interface offers two methods to convert an object to a string representation and restore the object given its string representation.
stringifyException(Throwable) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Make a string representation of the exception.
stringifySolution(int, int, List<List<Pentomino.ColumnName>>) - 类 中的静态方法org.apache.hadoop.examples.dancing.Pentomino
Convert a solution to the puzzle returned by the model into a string that represents the placement of the pieces onto the board.
stringifyToken(Token<DelegationTokenIdentifier>) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
A test method for printing out tokens
stringToPath(String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
 
stringToURI(String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
 
StringTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
 
StringUtils - org.apache.hadoop.util中的类
General string utils
StringUtils() - 类 的构造器org.apache.hadoop.util.StringUtils
 
StringUtils.TraditionalBinaryPrefix - org.apache.hadoop.util中的枚举
The traditional binary prefixes, kilo, mega, ..., exa, which can be represented by a 64-bit integer.
StringValueMax - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that maintain the biggest of a sequence of strings.
StringValueMax() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.StringValueMax
the default constructor
StringValueMin - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that maintain the smallest of a sequence of strings.
StringValueMin() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.StringValueMin
the default constructor
STRUCT - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
StructTypeID - org.apache.hadoop.record.meta中的类
Represents typeID for a struct
StructTypeID(RecordTypeInfo) - 类 的构造器org.apache.hadoop.record.meta.StructTypeID
Create a StructTypeID based on the RecordTypeInfo of some record
SUBDIR - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
subMap(WritableComparable, WritableComparable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
submit() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
Submit this job to mapred.
submit() - 类 中的方法org.apache.hadoop.mapreduce.Job
Submit the job to the cluster and return immediately.
submit() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
Submit this job to mapred.
submitAndMonitorJob() - 类 中的方法org.apache.hadoop.streaming.StreamJob
 
submitJob(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
Submit a job to the MR system.
submitJob(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
Submit a job to the MR system.
submitJob(JobID, String, Credentials) - 类 中的方法org.apache.hadoop.mapred.JobTracker
JobTracker.submitJob() kicks off a new job.
submitJob(JobID, String, Credentials) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
 
submitJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
已过时。
submitJobInternal(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
Internal method for submitting jobs to the system.
submitReadahead(String, FileDescriptor, long, long) - 类 中的方法org.apache.hadoop.io.ReadaheadPool
Submit a request to readahead on the given file descriptor.
Submitter - org.apache.hadoop.mapred.pipes中的类
The main entry point and job submitter.
Submitter() - 类 的构造器org.apache.hadoop.mapred.pipes.Submitter
 
Submitter(Configuration) - 类 的构造器org.apache.hadoop.mapred.pipes.Submitter
 
SUBSTITUTE_TOKEN - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
If users are providing their own query, the following string is expected to appear in the WHERE clause, which will be substituted with a pair of conditions on the input to allow input splits to parallelise the import.
SUCCEEDED - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
 
SUCCEEDED_FILE_NAME - 类 中的静态变量org.apache.hadoop.mapred.FileOutputCommitter
 
SUCCEEDED_FILE_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
 
SUCCESS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
 
SUCCESS - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
 
success() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
Mark the request as success.
SUCCESS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
Constants for DistCp return code to shell / consumer of ToolRunner's run
Sudoku - org.apache.hadoop.examples.dancing中的类
This class uses the dancing links algorithm from Knuth to solve sudoku puzzles.
Sudoku(InputStream) - 类 的构造器org.apache.hadoop.examples.dancing.Sudoku
Set up a puzzle board to the given size.
Sudoku.ColumnName - org.apache.hadoop.examples.dancing中的接口
This interface is a marker class for the columns created for the Sudoku solver.
suffix(String) - 类 中的方法org.apache.hadoop.fs.Path
Adds a suffix to the final name in the path.
sum(Counters, Counters) - 类 中的静态方法org.apache.hadoop.mapred.Counters
Convenience method for computing the sum of two sets of counters.
SUPPORT_SPARSE_METRICS_DEFAULT - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
SUPPORT_SPARSE_METRICS_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
 
supportIsolationRunner(JobConf) - 类 中的方法org.apache.hadoop.mapred.Task
 
supports(LayoutVersion.Feature, int) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
Returns true if a given feature is supported in the given layout version
suspend() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
suspend the running thread
suspend() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
suspend the running thread
swap(Node[], int, int) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
 
swap(int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSortable
Swap items at the given addresses.
SWITCH_TO_SIMPLE_AUTH - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
 
SwitchTo(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
 
SYMBOL - 枚举 中的变量org.apache.hadoop.fs.permission.FsAction
Symbolic representation
symbol - 枚举 中的变量org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
 
symLink(String, String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Create a soft link between a src and destination only on a local disk.
sync() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
Synchronize all buffer with the underlying devices.
sync() - 接口 中的方法org.apache.hadoop.fs.Syncable
Synchronize all buffer with the underlying devices.
sync(long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Seek to the next sync mark past a given position.
sync() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
create a sync point
SYNC_FILE_RANGE_WAIT_AFTER - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
SYNC_FILE_RANGE_WAIT_BEFORE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
SYNC_FILE_RANGE_WRITE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
 
SYNC_INTERVAL - 类 中的静态变量org.apache.hadoop.io.SequenceFile
The number of bytes between sync points.
Syncable - org.apache.hadoop.fs中的接口
This interface declare the sync() operation.
syncFileRangeIfPossible(FileDescriptor, long, long, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
Call sync_file_range on the given file descriptor.
syncFs() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
flush all currently written data to the file system
syncLogs(String, TaskAttemptID, boolean, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
 
syncSeen() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns true iff the previous call to next passed a sync mark.

T

tabSize - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
tag - 类 中的变量org.apache.hadoop.contrib.utils.join.TaggedMapOutput
 
tag(String, String, String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Add a tag to the metrics
tag(String, String, String, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Add a tag to the metrics
tag(String, String, String) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
Add a metrics tag
TAG - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
 
TaggedMapOutput - org.apache.hadoop.contrib.utils.join中的类
This abstract class serves as the base class for the values that flow from the mappers to the reducers in a data join job.
TaggedMapOutput() - 类 的构造器org.apache.hadoop.contrib.utils.join.TaggedMapOutput
 
tags() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
tags() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
Get the tags
tags() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
Get the tags of the record
tailMap(WritableComparable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
targets - 类 中的变量org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor.BlockTargetPair
 
Task - org.apache.hadoop.mapred中的类
Base class for tasks.
Task() - 类 的构造器org.apache.hadoop.mapred.Task
 
Task(String, TaskAttemptID, int, int) - 类 的构造器org.apache.hadoop.mapred.Task
 
TASK - 类 中的静态变量org.apache.hadoop.mapreduce.TaskID
 
Task.CombineOutputCollector<K,V> - org.apache.hadoop.mapred中的类
OutputCollector for the combiner.
Task.CombineOutputCollector(Counters.Counter, Progressable, Configuration) - 类 的构造器org.apache.hadoop.mapred.Task.CombineOutputCollector
 
Task.CombinerRunner<K,V> - org.apache.hadoop.mapred中的类
 
Task.CombineValuesIterator<KEY,VALUE> - org.apache.hadoop.mapred中的类
 
Task.CombineValuesIterator(RawKeyValueIterator, RawComparator<KEY>, Class<KEY>, Class<VALUE>, Configuration, Reporter, Counters.Counter) - 类 的构造器org.apache.hadoop.mapred.Task.CombineValuesIterator
 
Task.Counter - org.apache.hadoop.mapred中的枚举
 
Task.NewCombinerRunner<K,V> - org.apache.hadoop.mapred中的类
 
Task.OldCombinerRunner<K,V> - org.apache.hadoop.mapred中的类
 
Task.OldCombinerRunner(Class<? extends Reducer<K, V, K, V>>, JobConf, Counters.Counter, Task.TaskReporter) - 类 的构造器org.apache.hadoop.mapred.Task.OldCombinerRunner
 
Task.TaskReporter - org.apache.hadoop.mapred中的类
 
Task20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
 
Task20LineHistoryEventEmitter() - 类 的构造器org.apache.hadoop.tools.rumen.Task20LineHistoryEventEmitter
 
TASK_LAUNCH_SCRIPT_PERMISSION - 类 中的静态变量org.apache.hadoop.mapred.TaskController
 
TaskAttempt20LineEventEmitter - org.apache.hadoop.tools.rumen中的类
 
TaskAttempt20LineEventEmitter() - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttempt20LineEventEmitter
 
TaskAttemptContext - org.apache.hadoop.mapred中的类
 
TaskAttemptContext - org.apache.hadoop.mapreduce中的类
The context for task attempts.
TaskAttemptContext(Configuration, TaskAttemptID) - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptContext
 
TaskAttemptFinishedEvent - org.apache.hadoop.tools.rumen中的类
Event to record successful task completion
TaskAttemptFinishedEvent(TaskAttemptID, TaskType, String, long, String, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
Create an event to record successful finishes for setup and cleanup attempts
TaskAttemptID - org.apache.hadoop.mapred中的类
TaskAttemptID represents the immutable and unique identifier for a task attempt.
TaskAttemptID(TaskID, int) - 类 的构造器org.apache.hadoop.mapred.TaskAttemptID
Constructs a TaskAttemptID object from given TaskID.
TaskAttemptID(String, int, boolean, int, int) - 类 的构造器org.apache.hadoop.mapred.TaskAttemptID
Constructs a TaskId object from given parts.
TaskAttemptID() - 类 的构造器org.apache.hadoop.mapred.TaskAttemptID
 
TaskAttemptID - org.apache.hadoop.mapreduce中的类
TaskAttemptID represents the immutable and unique identifier for a task attempt.
TaskAttemptID(TaskID, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptID
Constructs a TaskAttemptID object from given TaskID.
TaskAttemptID(String, int, boolean, int, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptID
Constructs a TaskId object from given parts.
TaskAttemptID() - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptID
 
TaskAttemptInfo - org.apache.hadoop.tools.rumen中的类
TaskAttemptInfo is a collection of statistics about a particular task-attempt gleaned from job-history of the job.
TaskAttemptInfo(TaskStatus.State, TaskInfo) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptInfo
 
TaskAttemptStartedEvent - org.apache.hadoop.tools.rumen中的类
Event to record start of a task attempt
TaskAttemptStartedEvent(TaskAttemptID, TaskType, long, String, int, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
Create an event to record the start of an attempt
TaskAttemptUnsuccessfulCompletionEvent - org.apache.hadoop.tools.rumen中的类
Event to record unsuccessful (Killed/Failed) completion of task attempts
TaskAttemptUnsuccessfulCompletionEvent(TaskAttemptID, TaskType, String, long, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
Create an event to record the unsuccessful completion of attempts
taskCleanup - 类 中的变量org.apache.hadoop.mapred.Task
 
TaskCompletionEvent - org.apache.hadoop.mapred中的类
This is used to track task completion events on job tracker.
TaskCompletionEvent() - 类 的构造器org.apache.hadoop.mapred.TaskCompletionEvent
Default constructor for Writable.
TaskCompletionEvent(int, TaskAttemptID, int, boolean, TaskCompletionEvent.Status, String) - 类 的构造器org.apache.hadoop.mapred.TaskCompletionEvent
Constructor. eventId should be created externally and incremented per event for each job.
TaskCompletionEvent.Status - org.apache.hadoop.mapred中的枚举
 
taskContext - 类 中的变量org.apache.hadoop.mapred.Task
 
TaskController - org.apache.hadoop.mapred中的类
Controls initialization, finalization and clean up of tasks, and also the launching and killing of task JVMs.
TaskController() - 类 的构造器org.apache.hadoop.mapred.TaskController
 
TaskDistributedCacheManager - org.apache.hadoop.filecache中的类
Helper class of TrackerDistributedCacheManager that represents the cached files of a single job.
TaskFailedEvent - org.apache.hadoop.tools.rumen中的类
Event to record the failure of a task
TaskFailedEvent(TaskID, long, TaskType, String, String, TaskAttemptID) - 类 的构造器org.apache.hadoop.tools.rumen.TaskFailedEvent
Create an event to record task failure
taskFailedPing(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
 
TaskFinishedEvent - org.apache.hadoop.tools.rumen中的类
Event to record the successful completion of a task
TaskFinishedEvent(TaskID, long, TaskType, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.TaskFinishedEvent
Create an event to record the successful completion of a task
TaskGraphServlet - org.apache.hadoop.mapred中的类
The servlet that outputs svg graphics for map / reduce task statuses
TaskGraphServlet() - 类 的构造器org.apache.hadoop.mapred.TaskGraphServlet
 
TaskID - org.apache.hadoop.mapred中的类
TaskID represents the immutable and unique identifier for a Map or Reduce Task.
TaskID(JobID, boolean, int) - 类 的构造器org.apache.hadoop.mapred.TaskID
Constructs a TaskID object from given JobID.
TaskID(String, int, boolean, int) - 类 的构造器org.apache.hadoop.mapred.TaskID
Constructs a TaskInProgressId object from given parts.
TaskID() - 类 的构造器org.apache.hadoop.mapred.TaskID
 
TaskID - org.apache.hadoop.mapreduce中的类
TaskID represents the immutable and unique identifier for a Map or Reduce Task.
TaskID(JobID, boolean, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskID
Constructs a TaskID object from given JobID.
TaskID(String, int, boolean, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskID
Constructs a TaskInProgressId object from given parts.
TaskID() - 类 的构造器org.apache.hadoop.mapreduce.TaskID
 
taskInfo - 类 中的变量org.apache.hadoop.tools.rumen.TaskAttemptInfo
 
TaskInfo - org.apache.hadoop.tools.rumen中的类
 
TaskInfo(long, int, long, int, long) - 类 的构造器org.apache.hadoop.tools.rumen.TaskInfo
 
TaskInfo(long, int, long, int, long, ResourceUsageMetrics) - 类 的构造器org.apache.hadoop.tools.rumen.TaskInfo
 
TaskInputOutputContext<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
A context object that allows input and output from the task.
TaskInputOutputContext(Configuration, TaskAttemptID, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter) - 类 的构造器org.apache.hadoop.mapreduce.TaskInputOutputContext
 
TaskLog - org.apache.hadoop.mapred中的类
A simple logger to handle the task-specific user logs.
TaskLog() - 类 的构造器org.apache.hadoop.mapred.TaskLog
 
TaskLog.LogName - org.apache.hadoop.mapred中的枚举
The filter for userlogs.
TaskLogAppender - org.apache.hadoop.mapred中的类
A simple log4j-appender for the task child's map-reduce system logs.
TaskLogAppender() - 类 的构造器org.apache.hadoop.mapred.TaskLogAppender
 
TaskLogServlet - org.apache.hadoop.mapred中的类
A servlet that is run by the TaskTrackers to provide the task logs via http.
TaskLogServlet() - 类 的构造器org.apache.hadoop.mapred.TaskLogServlet
 
TaskLogsTruncater - org.apache.hadoop.mapred中的类
The class for truncating the user logs.
TaskLogsTruncater(Configuration) - 类 的构造器org.apache.hadoop.mapred.TaskLogsTruncater
 
TaskReport - org.apache.hadoop.mapred中的类
A report on the state of a task.
TaskReport() - 类 的构造器org.apache.hadoop.mapred.TaskReport
 
TaskStartedEvent - org.apache.hadoop.tools.rumen中的类
Event to record the start of a task
TaskStartedEvent(TaskID, long, TaskType, String) - 类 的构造器org.apache.hadoop.tools.rumen.TaskStartedEvent
Create an event to record start of a task
TaskStatus - org.apache.hadoop.mapred中的类
Describes the current status of a task.
TaskStatus() - 类 的构造器org.apache.hadoop.mapred.TaskStatus
 
TaskStatus(TaskAttemptID, float, int, TaskStatus.State, String, String, String, TaskStatus.Phase, Counters) - 类 的构造器org.apache.hadoop.mapred.TaskStatus
 
TaskStatus.Phase - org.apache.hadoop.mapred中的枚举
 
TaskStatus.State - org.apache.hadoop.mapred中的枚举
 
TaskTracker - org.apache.hadoop.mapred中的类
TaskTracker is a process that starts and tracks MR Tasks in a networked environment.
TaskTracker(JobConf) - 类 的构造器org.apache.hadoop.mapred.TaskTracker
Start with the local machine name, and the default JobTracker
TaskTracker - org.apache.hadoop.mapreduce.server.jobtracker中的类
The representation of a single TaskTracker as seen by the JobTracker.
TaskTracker(String) - 类 的构造器org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Create a new TaskTracker.
TaskTracker.MapOutputServlet - org.apache.hadoop.mapred中的类
This class is used in TaskTracker's Jetty to serve the map outputs to other nodes.
TaskTracker.MapOutputServlet() - 类 的构造器org.apache.hadoop.mapred.TaskTracker.MapOutputServlet
 
TaskTrackerMetricsSource - org.apache.hadoop.mapred中的类
Instrumentation for metrics v2
TaskTrackerMetricsSource(TaskTracker) - 类 的构造器org.apache.hadoop.mapred.TaskTrackerMetricsSource
 
TaskTrackerMXBean - org.apache.hadoop.mapred中的接口
MXBean interface for TaskTracker
taskTrackerNames() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get the active, blacklisted, and graylisted task tracker names in the cluster.
taskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
Get all the task trackers in the cluster
TaskTrackerStatus - org.apache.hadoop.mapred中的类
A TaskTrackerStatus is a MapReduce primitive.
TaskTrackerStatus() - 类 的构造器org.apache.hadoop.mapred.TaskTrackerStatus
 
TaskTrackerStatus(String, String, int, List<TaskStatus>, int, int, int, int) - 类 的构造器org.apache.hadoop.mapred.TaskTrackerStatus
 
TaskType - org.apache.hadoop.mapreduce中的枚举
Enum for map, reduce, job-setup, job-cleanup, task-cleanup task types.
TaskUmbilicalProtocol - org.apache.hadoop.mapred中的接口
Protocol that task child process uses to contact its parent process.
TaskUpdatedEvent - org.apache.hadoop.tools.rumen中的类
Event to record updates to a task
TaskUpdatedEvent(TaskID, long) - 类 的构造器org.apache.hadoop.tools.rumen.TaskUpdatedEvent
Create an event to record task updates
TEMP_DIR_NAME - 类 中的静态变量org.apache.hadoop.mapred.FileOutputCommitter
Temporary directory name
TEMP_DIR_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
Temporary directory name
TeraGen - org.apache.hadoop.examples.terasort中的类
Generate the official terasort input data set.
TeraGen() - 类 的构造器org.apache.hadoop.examples.terasort.TeraGen
 
TeraGen.SortGenMapper - org.apache.hadoop.examples.terasort中的类
The Mapper class that given a row number, will generate the appropriate output line.
TeraGen.SortGenMapper() - 类 的构造器org.apache.hadoop.examples.terasort.TeraGen.SortGenMapper
 
TeraInputFormat - org.apache.hadoop.examples.terasort中的类
An input format that reads the first 10 characters of each line as the key and the rest of the line as the value.
TeraInputFormat() - 类 的构造器org.apache.hadoop.examples.terasort.TeraInputFormat
 
TeraOutputFormat - org.apache.hadoop.examples.terasort中的类
A streamlined text output format that writes key, value, and "\r\n".
TeraOutputFormat() - 类 的构造器org.apache.hadoop.examples.terasort.TeraOutputFormat
 
TeraSort - org.apache.hadoop.examples.terasort中的类
Generates the sampled split points, launches the job, and waits for it to finish.
TeraSort() - 类 的构造器org.apache.hadoop.examples.terasort.TeraSort
 
TeraValidate - org.apache.hadoop.examples.terasort中的类
Generate 1 mapper per a file that checks to make sure the keys are sorted within each file.
TeraValidate() - 类 的构造器org.apache.hadoop.examples.terasort.TeraValidate
 
Text - org.apache.hadoop.io中的类
This class stores text using standard UTF8 encoding.
Text() - 类 的构造器org.apache.hadoop.io.Text
 
Text(String) - 类 的构造器org.apache.hadoop.io.Text
Construct from a string.
Text(Text) - 类 的构造器org.apache.hadoop.io.Text
Construct from another text.
Text(byte[]) - 类 的构造器org.apache.hadoop.io.Text
Construct from a byte array.
Text.Comparator - org.apache.hadoop.io中的类
A WritableComparator optimized for Text keys.
Text.Comparator() - 类 的构造器org.apache.hadoop.io.Text.Comparator
 
TEXT_ID - 类 中的静态变量org.apache.hadoop.streaming.io.IdentifierResolver
 
TextInputFormat - org.apache.hadoop.mapred中的类
An InputFormat for plain text files.
TextInputFormat() - 类 的构造器org.apache.hadoop.mapred.TextInputFormat
 
TextInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
An InputFormat for plain text files.
TextInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.TextInputFormat
 
TextInputWriter - org.apache.hadoop.streaming.io中的类
InputWriter that writes the client's input as text.
TextInputWriter() - 类 的构造器org.apache.hadoop.streaming.io.TextInputWriter
 
TextOutputFormat<K,V> - org.apache.hadoop.mapred中的类
An OutputFormat that writes plain text files.
TextOutputFormat() - 类 的构造器org.apache.hadoop.mapred.TextOutputFormat
 
TextOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
An OutputFormat that writes plain text files.
TextOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.TextOutputFormat
 
TextOutputFormat.LineRecordWriter<K,V> - org.apache.hadoop.mapred中的类
 
TextOutputFormat.LineRecordWriter(DataOutputStream, String) - 类 的构造器org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
 
TextOutputFormat.LineRecordWriter(DataOutputStream) - 类 的构造器org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
 
TextOutputFormat.LineRecordWriter<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
 
TextOutputFormat.LineRecordWriter(DataOutputStream, String) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
 
TextOutputFormat.LineRecordWriter(DataOutputStream) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
 
TextOutputReader - org.apache.hadoop.streaming.io中的类
OutputReader that reads the client's output as text.
TextOutputReader() - 类 的构造器org.apache.hadoop.streaming.io.TextOutputReader
 
TextSplitter - org.apache.hadoop.mapreduce.lib.db中的类
Implement DBSplitter over text strings.
TextSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.TextSplitter
 
TFile - org.apache.hadoop.io.file.tfile中的类
A TFile is a container of key-value pairs.
TFile.Reader - org.apache.hadoop.io.file.tfile中的类
TFile Reader.
TFile.Reader(FSDataInputStream, long, Configuration) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader
Constructor
TFile.Reader.Scanner - org.apache.hadoop.io.file.tfile中的类
The TFile Scanner.
TFile.Reader.Scanner(TFile.Reader, long, long) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Constructor
TFile.Reader.Scanner(TFile.Reader, RawComparable, RawComparable) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Constructor
TFile.Reader.Scanner.Entry - org.apache.hadoop.io.file.tfile中的类
Entry to a <Key, Value> pair.
TFile.Reader.Scanner.Entry() - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
 
TFile.Writer - org.apache.hadoop.io.file.tfile中的类
TFile Writer.
TFile.Writer(FSDataOutputStream, int, String, String, Configuration) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Writer
Constructor
throttle(long) - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
Given the numOfBytes sent/received since last time throttle was called, make the current thread sleep if I/O rate is too fast compared to the given bandwidth.
ThrottledInputStream - org.apache.hadoop.tools.distcp2.util中的类
The ThrottleInputStream provides bandwidth throttling on a specified InputStream.
ThrottledInputStream(InputStream) - 类 的构造器org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
 
ThrottledInputStream(InputStream, long) - 类 的构造器org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
 
timedoutTask(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
 
timeOutInterval - 类 中的变量org.apache.hadoop.util.Shell
Time after which the executing script would be timedout
timestamp() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
timestamp() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
Get the timestamp of the metrics
TIPStatus - org.apache.hadoop.mapred中的枚举
The states of a TaskInProgress as seen by the JobTracker.
toArray() - 类 中的方法org.apache.hadoop.io.ArrayWritable
 
toArray() - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
 
toArray(Class<T>, List<T>) - 类 中的静态方法org.apache.hadoop.util.GenericsUtil
Converts the given List<T> to a an array of T[].
toArray(List<T>) - 类 中的静态方法org.apache.hadoop.util.GenericsUtil
Converts the given List<T> to a an array of T[].
toByteArray(Writable...) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Convert writables to a byte array
toContentSummary(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a Json map to a ContentSummary.
toDelegationToken(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a Json map to a Token of DelegationTokenIdentifier.
toFileStatus(Map<?, ?>, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a Json map to a HdfsFileStatus object.
toHex(byte[]) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
byte array to Hex String
toJsonString(Token<? extends TokenIdentifier>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a token object to a Json string.
toJsonString(Exception) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert an exception object to a Json string.
toJsonString(String, Object) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a key-value pair to a Json string.
toJsonString(HdfsFileStatus, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a HdfsFileStatus object to a Json string.
toJsonString(LocatedBlocks) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert LocatedBlocks to a Json string.
toJsonString(ContentSummary) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a ContentSummary to a Json string.
toJsonString(MD5MD5CRC32FileChecksum) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a MD5MD5CRC32FileChecksum to a Json string.
TOKEN - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.CancelDelegationTokenServlet
 
TOKEN - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
 
token - 类 中的变量org.apache.hadoop.record.compiler.generated.Rcc
 
Token - org.apache.hadoop.record.compiler.generated中的类
Describes the input token stream.
Token() - 类 的构造器org.apache.hadoop.record.compiler.generated.Token
 
Token<T extends TokenIdentifier> - org.apache.hadoop.security.token中的类
The client-side form of the token.
Token(T, SecretManager<T>) - 类 的构造器org.apache.hadoop.security.token.Token
Construct a token given a token identifier and a secret manager for the type of the token identifier.
Token(byte[], byte[], Text, Text) - 类 的构造器org.apache.hadoop.security.token.Token
Construct a token from the components.
Token() - 类 的构造器org.apache.hadoop.security.token.Token
Default constructor
Token(Token<T>) - 类 的构造器org.apache.hadoop.security.token.Token
Clone a token.
Token.TrivialRenewer - org.apache.hadoop.security.token中的类
A trivial renewer for token kinds that aren't managed.
Token.TrivialRenewer() - 类 的构造器org.apache.hadoop.security.token.Token.TrivialRenewer
 
TOKEN_KIND - 类 中的静态变量org.apache.hadoop.hdfs.HftpFileSystem
 
TOKEN_KIND - 类 中的静态变量org.apache.hadoop.hdfs.HsftpFileSystem
 
TOKEN_KIND - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
Delegation token kind
token_source - 类 中的变量org.apache.hadoop.record.compiler.generated.Rcc
 
TokenArgumentParam - org.apache.hadoop.hdfs.web.resources中的类
Represents delegation token parameter as method arguments.
TokenArgumentParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
Constructor.
TokenCache - org.apache.hadoop.mapreduce.security中的类
This class provides user facing APIs for transferring secrets from the job client to the tasks.
TokenCache() - 类 的构造器org.apache.hadoop.mapreduce.security.TokenCache
 
TokenCounterMapper - org.apache.hadoop.mapreduce.lib.map中的类
Tokenize the input values and emit each word with a count of 1.
TokenCounterMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.map.TokenCounterMapper
 
TokenCountMapper<K> - org.apache.hadoop.mapred.lib中的类
A Mapper that maps text values into pairs.
TokenCountMapper() - 类 的构造器org.apache.hadoop.mapred.lib.TokenCountMapper
 
TokenIdentifier - org.apache.hadoop.security.token中的类
An identifier that identifies a token, may contain public information about a token, including its kind (or type).
TokenIdentifier() - 类 的构造器org.apache.hadoop.security.token.TokenIdentifier
 
tokenImage - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
This is a reference to the "tokenImage" array of the generated parser within which the parse error occurred.
tokenImage - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
TokenInfo - org.apache.hadoop.security.token中的注释类型
Indicates Token related information to be used
TokenMgrError - org.apache.hadoop.record.compiler.generated中的错误
 
TokenMgrError() - 错误 的构造器org.apache.hadoop.record.compiler.generated.TokenMgrError
 
TokenMgrError(String, int) - 错误 的构造器org.apache.hadoop.record.compiler.generated.TokenMgrError
 
TokenMgrError(boolean, int, int, int, String, char, int) - 错误 的构造器org.apache.hadoop.record.compiler.generated.TokenMgrError
 
TokenRenewer - org.apache.hadoop.security.token中的类
This is the interface for plugins that handle tokens.
TokenRenewer() - 类 的构造器org.apache.hadoop.security.token.TokenRenewer
 
tokenSecret - 类 中的变量org.apache.hadoop.mapred.Task
 
TokenSelector<T extends TokenIdentifier> - org.apache.hadoop.security.token中的接口
Select token of type T from tokens for use with named service
tokenStorage - 类 中的变量org.apache.hadoop.mapred.JobInProgress
 
toLocatedBlocks(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a Json map to LocatedBlock.
toMap() - 类 中的方法org.apache.hadoop.streaming.Environment
 
toMD5MD5CRC32FileChecksum(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a Json map to a MD5MD5CRC32FileChecksum.
Tool - org.apache.hadoop.util中的接口
A tool interface that supports handling of generic command-line options.
ToolRunner - org.apache.hadoop.util中的类
A utility to help run Tools.
ToolRunner() - 类 的构造器org.apache.hadoop.util.ToolRunner
 
top() - 类 中的方法org.apache.hadoop.util.PriorityQueue
Returns the least element of the PriorityQueue in constant time.
TopologyBuilder - org.apache.hadoop.tools.rumen中的类
Building the cluster topology.
TopologyBuilder() - 类 的构造器org.apache.hadoop.tools.rumen.TopologyBuilder
 
toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
 
toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
 
toQueryString() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
 
toQueryString() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
 
toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
 
toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
 
toRemoteException(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a Json map to a RemoteException.
toResponse(Exception) - 类 中的方法org.apache.hadoop.hdfs.web.resources.ExceptionHandler
 
toShort() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
Encode the object to a short.
toSortedString(String, Param<?, ?>...) - 类 中的静态方法org.apache.hadoop.hdfs.web.resources.Param
Convert the parameters to a sorted String.
toString() - 类 中的方法org.apache.hadoop.conf.Configuration.IntegerRanges
 
toString() - 类 中的方法org.apache.hadoop.conf.Configuration
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.lucene.ShardWriter
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp.Op
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
 
toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
 
toString() - 类 中的方法org.apache.hadoop.fs.BlockLocation
 
toString() - 类 中的方法org.apache.hadoop.fs.ContentSummary
toString(boolean) - 类 中的方法org.apache.hadoop.fs.ContentSummary
Return the string representation of the object in the output format.
toString() - 类 中的方法org.apache.hadoop.fs.DF
 
toString() - 类 中的方法org.apache.hadoop.fs.DU
 
toString() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
 
toString() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
toString() - 类 中的方法org.apache.hadoop.fs.Path
 
toString() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
toString() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
toString() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
 
toString() - 类 中的方法org.apache.hadoop.fs.s3.Block
 
toString() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
toString() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
 
toString() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
toString() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
 
toString() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
 
toString() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
toString() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
Print basic upgradeStatus details.
toString() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
toString() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
 
toString() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Stringifies the name of the storage
toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
 
toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
 
toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
toString() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
 
toString() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
 
toString() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
 
toString() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
 
toString() - 类 中的方法org.apache.hadoop.io.BooleanWritable
 
toString() - 类 中的方法org.apache.hadoop.io.BytesWritable
Generate the stream of bytes as hex pairs separated by ' '.
toString() - 类 中的方法org.apache.hadoop.io.ByteWritable
 
toString() - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
Print the extension map out as a string.
toString(T) - 类 中的方法org.apache.hadoop.io.DefaultStringifier
 
toString() - 类 中的方法org.apache.hadoop.io.DoubleWritable
 
toString() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
Return a string representation of the version.
toString() - 类 中的方法org.apache.hadoop.io.FloatWritable
 
toString() - 类 中的方法org.apache.hadoop.io.GenericWritable
 
toString() - 类 中的方法org.apache.hadoop.io.IntWritable
 
toString() - 类 中的方法org.apache.hadoop.io.LongWritable
 
toString() - 类 中的方法org.apache.hadoop.io.MD5Hash
Returns a string representation of this object.
toString() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
 
toString() - 异常错误 中的方法org.apache.hadoop.io.nativeio.NativeIOException
 
toString() - 类 中的方法org.apache.hadoop.io.NullWritable
 
toString() - 类 中的方法org.apache.hadoop.io.ObjectWritable
 
toString() - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry.Pair
 
toString() - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
 
toString() - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
toString() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
Returns the name of the file.
toString(T) - 接口 中的方法org.apache.hadoop.io.Stringifier
Converts the object to a string representation
toString() - 类 中的方法org.apache.hadoop.io.Text
Convert text back to string
toString() - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
Convert to a String.
toString() - 异常错误 中的方法org.apache.hadoop.io.VersionMismatchException
Returns a string representation of this object.
toString() - 类 中的方法org.apache.hadoop.io.VIntWritable
 
toString() - 类 中的方法org.apache.hadoop.io.VLongWritable
 
toString() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
 
toString() - 类 中的方法org.apache.hadoop.mapred.Counters
Return textual representation of the counter values.
toString() - 类 中的方法org.apache.hadoop.mapred.FileSplit
 
toString() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
 
toString() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
Convert Tuple to String as in the following.
toString() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
 
toString() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
 
toString() - 类 中的方法org.apache.hadoop.mapred.MultiFileSplit
已过时。
 
toString() - 类 中的方法org.apache.hadoop.mapred.Task
 
toString() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
 
toString() - 枚举 中的方法org.apache.hadoop.mapred.TaskLog.LogName
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.Counters
Return textual representation of the counter values.
toString() - 类 中的方法org.apache.hadoop.mapreduce.ID
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.JobID
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
 
toString() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
 
toString() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
 
toString() - 类 中的方法org.apache.hadoop.metrics2.Metric
 
toString() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
 
toString() - 类 中的方法org.apache.hadoop.net.NetworkTopology
convert a network tree to a string
toString() - 类 中的方法org.apache.hadoop.net.NodeBase
Return this node's string representation
toString() - 类 中的方法org.apache.hadoop.record.Buffer
 
toString(String) - 类 中的方法org.apache.hadoop.record.Buffer
Convert the byte buffer to a string an specific character encoding
toString() - 类 中的方法org.apache.hadoop.record.compiler.CodeBuffer
 
toString() - 类 中的方法org.apache.hadoop.record.compiler.generated.Token
Returns the image.
toString() - 类 中的方法org.apache.hadoop.record.Record
 
toString() - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
Returns the string representation of the token.
toString() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
Returns the string representation of the token.
toString() - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
 
toString() - 类 中的方法org.apache.hadoop.security.KerberosName
Put the name back together from the parts.
toString() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
toString() - 类 中的方法org.apache.hadoop.security.token.Token
 
toString() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
Return the username.
toString() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
Utility to easily string-ify Options, for logging.
toString() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
 
toString() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
 
toString() - 类 中的方法org.apache.hadoop.tools.rumen.Node
 
toString() - 类 中的方法org.apache.hadoop.tools.rumen.TreePath
 
toString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
Generate a suitable string representation.
toString() - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
toString() - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
toString() - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
toString() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
Returns a string printing PIDs of process present in the ProcfsBasedProcessTree.
toString() - 类 中的方法org.apache.hadoop.util.Progress
 
toString() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
Returns the commands of this instance.
toStringChecked() - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
Convert to a string, checking for valid UTF8.
toStrings() - 类 中的方法org.apache.hadoop.io.ArrayWritable
 
TotalOrderPartitioner<K extends WritableComparable,V> - org.apache.hadoop.mapred.lib中的类
Partitioner effecting a total order by reading split points from an externally generated source.
TotalOrderPartitioner() - 类 的构造器org.apache.hadoop.mapred.lib.TotalOrderPartitioner
 
TotalOrderPartitioner<K extends WritableComparable<?>,V> - org.apache.hadoop.mapreduce.lib.partition中的类
Partitioner effecting a total order by reading split points from an externally generated source.
TotalOrderPartitioner() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
 
totalRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
totalRawUsed() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
 
toToken(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
Convert a Json map to a Token.
touch(File) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
 
touchFile(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
 
toUri() - 类 中的方法org.apache.hadoop.fs.Path
Convert this to a URI.
toWriteSkipRecs() - 类 中的方法org.apache.hadoop.mapred.Task
Get whether to write skip records.
TraceBuilder - org.apache.hadoop.tools.rumen中的类
The main driver of the Rumen Parser.
TraceBuilder() - 类 的构造器org.apache.hadoop.tools.rumen.TraceBuilder
 
TrackerDistributedCacheManager - org.apache.hadoop.filecache中的类
Manages a single machine's instance of a cross-job cache.
TrackerDistributedCacheManager(Configuration, TaskController) - 类 的构造器org.apache.hadoop.filecache.TrackerDistributedCacheManager
 
TrackerDistributedCacheManager.BaseDirManager - org.apache.hadoop.filecache中的类
This class holds properties of each base directories and is responsible for clean up unused cache files in base directories.
TrackerDistributedCacheManager.BaseDirManager() - 类 的构造器org.apache.hadoop.filecache.TrackerDistributedCacheManager.BaseDirManager
 
TrackerDistributedCacheManager.CleanupThread - org.apache.hadoop.filecache中的类
A thread to check and cleanup the unused files periodically
TrackerDistributedCacheManager.CleanupThread(Configuration) - 类 的构造器org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
 
transferToFully(FileChannel, long, int) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
Transfers data from FileChannel using FileChannel.transferTo(long, long, WritableByteChannel).
transform(InputStream, InputStream, Writer) - 类 中的静态方法org.apache.hadoop.util.XMLUtils
Transform input xml given a stylesheet.
Trash - org.apache.hadoop.fs中的类
Provides a trash feature.
Trash(Configuration) - 类 的构造器org.apache.hadoop.fs.Trash
Construct a trash can accessor.
Trash(FileSystem, Configuration) - 类 的构造器org.apache.hadoop.fs.Trash
Construct a trash can accessor for the FileSystem provided.
TreePath - org.apache.hadoop.tools.rumen中的类
This describes a path from a node to the root.
TreePath(TreePath, String) - 类 的构造器org.apache.hadoop.tools.rumen.TreePath
 
TreePath(TreePath, String, int) - 类 的构造器org.apache.hadoop.tools.rumen.TreePath
 
truncate() - 类 中的方法org.apache.hadoop.record.Buffer
Change the capacity of the backing store to be the same as the current count of buffer.
truncateLogs(JVMInfo) - 类 中的方法org.apache.hadoop.mapred.TaskLogsTruncater
Process the removed task's logs.
truncateLogsAsUser(String, List<Task>) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
 
truncateLogsAsUser(String, List<Task>) - 类 中的方法org.apache.hadoop.mapred.TaskController
Run the passed command as the user
TRY_ONCE_DONT_FAIL - 类 中的静态变量org.apache.hadoop.io.retry.RetryPolicies
Try once, and fail silently for void methods, or by re-throwing the exception for non-void methods.
TRY_ONCE_THEN_FAIL - 类 中的静态变量org.apache.hadoop.io.retry.RetryPolicies
Try once, and fail by re-throwing the exception.
tryDivide(BigDecimal, BigDecimal) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BigDecimalSplitter
Divide numerator by denominator.
TryIterator<T> - org.apache.hadoop.metrics2.util中的类
A base class for unmodifiable iterators (throws on remove) This class also makes writing filtering iterators easier, where the only way to discover the end of data is by trying to read it.
TryIterator() - 类 的构造器org.apache.hadoop.metrics2.util.TryIterator
 
tryNext() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
Return the next element.
TT_KEYTAB_FILE - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
TT_LOG_TMP_DIR - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
TT_RESOURCE_CALCULATOR_PLUGIN - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
TT_USER_NAME - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
 
ttConf - 类 中的变量org.apache.hadoop.mapred.JobLocalizer
 
TupleWritable - org.apache.hadoop.mapred.join中的类
Writable type storing multiple Writables.
TupleWritable() - 类 的构造器org.apache.hadoop.mapred.join.TupleWritable
Create an empty tuple with no allocated storage for writables.
TupleWritable(Writable[]) - 类 的构造器org.apache.hadoop.mapred.join.TupleWritable
Initialize tuple with storage; unknown whether any of them contain "written" values.
TwoDArrayWritable - org.apache.hadoop.io中的类
A Writable for 2D arrays containing a matrix of instances of a class.
TwoDArrayWritable(Class) - 类 的构造器org.apache.hadoop.io.TwoDArrayWritable
 
TwoDArrayWritable(Class, Writable[][]) - 类 的构造器org.apache.hadoop.io.TwoDArrayWritable
 
twoRotations - 类 中的静态变量org.apache.hadoop.examples.dancing.Pentomino
Is the piece identical if rotated 180 degrees?
Type() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
TYPE - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
Constant that identifies the authentication mechanism.
TYPE - 类 中的静态变量org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
Constant that identifies the authentication mechanism.
Type - org.apache.hadoop.typedbytes中的枚举
The possible type codes.
TYPE_SEPARATOR - 接口 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
 
TYPED_BYTES_ID - 类 中的静态变量org.apache.hadoop.streaming.io.IdentifierResolver
 
TypedBytesInput - org.apache.hadoop.typedbytes中的类
Provides functionality for reading typed bytes.
TypedBytesInput(DataInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesInput
Creates a new instance of TypedBytesInput.
TypedBytesInputWriter - org.apache.hadoop.streaming.io中的类
InputWriter that writes the client's input as typed bytes.
TypedBytesInputWriter() - 类 的构造器org.apache.hadoop.streaming.io.TypedBytesInputWriter
 
TypedBytesOutput - org.apache.hadoop.typedbytes中的类
Provides functionality for writing typed bytes.
TypedBytesOutput(DataOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesOutput
Creates a new instance of TypedBytesOutput.
TypedBytesOutputReader - org.apache.hadoop.streaming.io中的类
OutputReader that reads the client's output as typed bytes.
TypedBytesOutputReader() - 类 的构造器org.apache.hadoop.streaming.io.TypedBytesOutputReader
 
TypedBytesRecordInput - org.apache.hadoop.typedbytes中的类
Serializer for records that writes typed bytes.
TypedBytesRecordInput(TypedBytesInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordInput
Creates a new instance of TypedBytesRecordInput.
TypedBytesRecordInput(DataInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordInput
Creates a new instance of TypedBytesRecordInput.
TypedBytesRecordOutput - org.apache.hadoop.typedbytes中的类
Deserialized for records that reads typed bytes.
TypedBytesRecordOutput(TypedBytesOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordOutput
Creates a new instance of TypedBytesRecordOutput.
TypedBytesRecordOutput(DataOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordOutput
Creates a new instance of TypedBytesRecordOutput.
TypedBytesWritable - org.apache.hadoop.typedbytes中的类
Writable for typed bytes.
TypedBytesWritable() - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritable
Create a TypedBytesWritable.
TypedBytesWritable(byte[]) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritable
Create a TypedBytesWritable with a given byte array as initial value.
TypedBytesWritableInput - org.apache.hadoop.typedbytes中的类
Provides functionality for reading typed bytes as Writable objects.
TypedBytesWritableInput(TypedBytesInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableInput
Creates a new instance of TypedBytesWritableInput.
TypedBytesWritableInput(DataInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableInput
Creates a new instance of TypedBytesWritableInput.
TypedBytesWritableOutput - org.apache.hadoop.typedbytes中的类
Provides functionality for writing Writable objects as typed bytes.
TypedBytesWritableOutput(TypedBytesOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableOutput
Creates a new instance of TypedBytesWritableOutput.
TypedBytesWritableOutput(DataOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableOutput
Creates a new instance of TypedBytesWritableOutput.
TypeID - org.apache.hadoop.record.meta中的类
Represents typeID for basic types.
TypeID.RIOType - org.apache.hadoop.record.meta中的类
constants representing the IDL types we support
TypeID.RIOType() - 类 的构造器org.apache.hadoop.record.meta.TypeID.RIOType
 
typeVal - 类 中的变量org.apache.hadoop.record.meta.TypeID
 

U

UC_ACTION_REPORT_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
UC_ACTION_START_UPGRADE - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
ugi - 类 中的变量org.apache.hadoop.hdfs.HftpFileSystem
 
ugi - 类 中的变量org.apache.hadoop.mapreduce.JobContext
The UserGroupInformation object that has a reference to the current user
ULIMIT_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
a Unix command to get ulimit of a process.
UMASK_LABEL - 类 中的静态变量org.apache.hadoop.fs.permission.FsPermission
 
umbilical - 类 中的变量org.apache.hadoop.mapred.Task
 
UNAVAILABLE - 类 中的静态变量org.apache.hadoop.mapred.TaskTrackerStatus
 
uncompressedValSerializer - 类 中的变量org.apache.hadoop.io.SequenceFile.Writer
 
unEscapeString(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Unescape commas in the string using the default escape char
unEscapeString(String, char, char) - 类 中的静态方法org.apache.hadoop.util.StringUtils
Unescape charToEscape in the string with the escape char escapeChar
unEscapeString(String, char, char[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
 
unfinalizeBlock(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Remove the temporary block file (if any)
unfinalizeBlock(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Unfinalizes the block previously opened for writing using writeToBlock.
UNIFORMSIZE - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
UniformSizeInputFormat - org.apache.hadoop.tools.distcp2.mapred中的类
UniformSizeInputFormat extends the InputFormat<> class, to produce input-splits for DistCp.
UniformSizeInputFormat() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.UniformSizeInputFormat
 
UNINITIALIZED_MEMORY_VALUE - 类 中的静态变量org.apache.hadoop.mapred.ClusterStatus
 
UNIQ_VALUE_COUNT - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
UniqValueCount - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that dedupes a sequence of objects.
UniqValueCount() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
the default constructor
UniqValueCount(long) - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
constructor
unJar(File, File) - 类 中的静态方法org.apache.hadoop.util.RunJar
Unpack a jar file into a directory.
UNKNOWN_ERROR - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
 
UNKOWN_SEQNO - 类 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
 
unlock() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Unlock storage.
unlockAll() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
Unlock all storage directories.
unmarkJobFromLogDeletion(JobID) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
Remove job from user log deletion.
unpackAttributes(String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
Un packs preservation attribute string containing the first character of each preservation attribute back to a set of attributes to preserve
unquoteHtmlChars(String) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
Remove HTML quoting from a string.
unregister(ObjectName) - 类 中的静态方法org.apache.hadoop.metrics2.util.MBeans
 
UnregisteredDatanodeException - org.apache.hadoop.hdfs.protocol中的异常错误
This exception is thrown when a datanode that has not previously registered is trying to access the name node.
UnregisteredDatanodeException(DatanodeID) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.UnregisteredDatanodeException
 
UnregisteredDatanodeException(DatanodeID, DatanodeInfo) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.UnregisteredDatanodeException
 
unregisterMBean(ObjectName) - 类 中的静态方法org.apache.hadoop.metrics.util.MBeanUtil
已过时。
 
unRegisterMXBean() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
 
unregisterUpdater(Updater) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
已过时。
Removes a callback, if it exists.
unregisterUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Removes a callback, if it exists.
unregisterUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
已过时。
 
unreserveSlots(TaskType, JobInProgress) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
Free map slots on this TaskTracker which were reserved for taskType.
unreserveTaskTracker(TaskTracker, TaskType) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
 
unset(String) - 类 中的方法org.apache.hadoop.conf.Configuration
Unset a previously set property.
UnsupportedActionException - org.apache.hadoop.hdfs.server.namenode中的异常错误
This exception is thrown when an operation is not supported.
UnsupportedActionException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.UnsupportedActionException
 
unTar(File, File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Given a Tar File as input it will untar the file in a the untar directory passed as the second parameter This utility will untar ".tar" files and ".tar.gz","tgz" files.
unwrapRemoteException(Class<?>...) - 异常错误 中的方法org.apache.hadoop.ipc.RemoteException
If this remote exception wraps up one of the lookupTypes then return this exception.
unwrapRemoteException() - 异常错误 中的方法org.apache.hadoop.ipc.RemoteException
Instantiate and return the exception wrapped up by this remote exception.
unZip(File, File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
Given a File input it will unzip the file in a the unzip directory passed as the second parameter
UPDATE - 类 中的静态变量org.apache.hadoop.contrib.index.mapred.DocumentAndOp.Op
 
update() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
已过时。
Updates the table of buffered data which is to be sent periodically.
update(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
已过时。
Called by MetricsRecordImpl.update().
update() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
已过时。
Updates the table of buffered data which is to be sent periodically.
update(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
已过时。
Do-nothing version of update
update(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
已过时。
Do-nothing version of update
update(MetricsRecord, boolean) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache
Update the cache and return the cached record
update(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache
 
update(byte[], int, int) - 类 中的方法org.apache.hadoop.util.DataChecksum
 
update(int) - 类 中的方法org.apache.hadoop.util.DataChecksum
 
update(byte[], int, int) - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
update(int) - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
updateBlock(Block, Block, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
Update the block to the new generation stamp and length.
updateBlock(Block, Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Update the block to the new generation stamp and length.
updateBlock(Block, Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Update the block to the new generation stamp and length.
updateBlock(Block, Block, boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
Update the block to the new generation stamp and length.
updateChunkChecksum(byte[], int, int, int, DataChecksum) - 类 中的静态方法org.apache.hadoop.util.ChecksumUtil
updates the checksum for a buffer
updateFileNames(String, String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
 
UpdateIndex - org.apache.hadoop.contrib.index.main中的类
A distributed "index" is partitioned into "shards".
UpdateIndex() - 类 的构造器org.apache.hadoop.contrib.index.main.UpdateIndex
 
updateKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
Update block keys, only to be used in master mode
UpdateLineColumn(char) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
 
updatePersistedMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Add a MasterKey to the list of keys.
updatePersistedTokenCancellation(DelegationTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Update the token cache with the cancel record in edit logs
updatePersistedTokenRenewal(DelegationTokenIdentifier, long) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
Update the token cache with renewal record in edit logs.
updatePrivateDistributedCacheSizes(JobID, long[]) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
 
updatePrivateDistributedCacheSizes(JobID, long[]) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
The job initializer needs to report the sizes of the archive objects and directories in the private distributed cache.
updateProcessedByteCount(int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
This method keeps track of raw processed compressed bytes.
updateQuery(String) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
 
Updater - org.apache.hadoop.metrics中的接口
已过时。
in favor of org.apache.hadoop.metrics2 usage.
updateRegInfo(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
Update fields when a new registration request comes in.
updateReportedByteCount(int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
This method is called by the client of this class in case there are any corrections in the stream position.
updateTaskStatus(TaskInProgress, TaskStatus) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
Assuming JobTracker is locked on entry.
Upgradeable - org.apache.hadoop.hdfs.server.common中的接口
Common interface for distributed upgrade objects.
UpgradeCommand - org.apache.hadoop.hdfs.server.protocol中的类
This as a generic distributed upgrade command.
UpgradeCommand() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
UpgradeCommand(int, int, short) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
UpgradeManager - org.apache.hadoop.hdfs.server.common中的类
Generic upgrade manager.
UpgradeManager() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeManager
 
UpgradeObject - org.apache.hadoop.hdfs.server.common中的类
Abstract upgrade object.
UpgradeObject() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeObject
 
UpgradeObjectCollection - org.apache.hadoop.hdfs.server.common中的类
Collection of upgrade objects.
UpgradeObjectCollection() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeObjectCollection
 
UpgradeObjectDatanode - org.apache.hadoop.hdfs.server.datanode中的类
Base class for data-node upgrade objects.
UpgradeObjectDatanode() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
 
UpgradeObjectNamenode - org.apache.hadoop.hdfs.server.namenode中的类
Base class for name-node upgrade objects.
UpgradeObjectNamenode() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
 
upgradeProgress(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
Command to request current distributed upgrade status, a detailed status, or to force the upgrade to proceed.
upgradeState - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeManager
 
upgradeStatus - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
 
UpgradeStatusReport - org.apache.hadoop.hdfs.server.common中的类
Base upgrade upgradeStatus class.
UpgradeStatusReport() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
 
UpgradeStatusReport(int, short, boolean) - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
 
upgradeVersion - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeManager
 
UPPER_LIMIT_ON_TASK_VMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
已过时。 
upperBound(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Move the cursor to the first entry whose key is strictly greater than the input key.
upperBound(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
Move the cursor to the first entry whose key is strictly greater than the input key.
upperBound(List<? extends T>, T, Comparator<? super T>) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Upper bound binary search.
upperBound(List<? extends Comparable<? super T>>, T) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Upper bound binary search.
UriFsPathParam - org.apache.hadoop.hdfs.web.resources中的类
The FileSystem path parameter.
UriFsPathParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.UriFsPathParam
Constructor.
uriToString(URI[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
 
url - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
 
URL_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
JDBC Database access URL
URL_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
JDBC Database access URL
USAGE - 类 中的静态变量org.apache.hadoop.fs.shell.Count
 
usage() - 类 中的静态方法org.apache.hadoop.record.compiler.generated.Rcc
 
usage() - 类 中的静态方法org.apache.hadoop.tools.distcp2.OptionsParser
 
USAGES - 类 中的静态变量org.apache.hadoop.log.LogLevel
 
useKsslAuth() - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
 
USER_LOG_RETAIN_HOURS - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
 
USER_NAME - 类 中的静态变量org.apache.hadoop.security.authentication.client.PseudoAuthenticator
Name of the additional parameter that carries the 'user.name' value.
USER_NAME_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
a Unix command to get the current user's name
UserDefinedValueAggregatorDescriptor - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a wrapper for a user defined value aggregator descriptor.
UserDefinedValueAggregatorDescriptor(String, JobConf) - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
 
UserGroupInformation - org.apache.hadoop.security中的类
User and group information for Hadoop.
UserGroupInformation.AuthenticationMethod - org.apache.hadoop.security中的枚举
existing types of authentications' methods
UserGroupInformation.HadoopLoginModule - org.apache.hadoop.security中的类
A login module that looks at the Kerberos, Unix, or Windows principal and adds the corresponding UserName.
UserGroupInformation.HadoopLoginModule() - 类 的构造器org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
 
UserLogCleaner - org.apache.hadoop.mapred中的类
This is used only in UserLogManager, to manage cleanup of user logs.
UserLogCleaner(UserLogManager, Configuration) - 类 的构造器org.apache.hadoop.mapred.UserLogCleaner
 
UserLogEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
A directive from the various components of TaskTracker to the UserLogManager to inform about an event.
UserLogEvent(UserLogEvent.EventType) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent
 
UserLogEvent.EventType - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的枚举
 
UserLogManager - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
This manages user logs on the TaskTracker.
UserLogManager(Configuration, TaskController) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
Create the user log manager to manage user logs on TaskTracker.
UserLogManager(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
Create the user log manager to manage user logs on TaskTracker.
USERNAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
User name to access the database
USERNAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
User name to access the database
UserParam - org.apache.hadoop.hdfs.web.resources中的类
User parameter.
UserParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.UserParam
Constructor.
UserParam(UserGroupInformation) - 类 的构造器org.apache.hadoop.hdfs.web.resources.UserParam
Construct an object from a UGI.
UserProvider - org.apache.hadoop.hdfs.web.resources中的类
Inject user information to http operations.
UserProvider() - 类 的构造器org.apache.hadoop.hdfs.web.resources.UserProvider
 
userToNetgroupsMap - 类 中的静态变量org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
 
USTRING_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
UTF8 - org.apache.hadoop.io中的类
已过时。
replaced by Text
UTF8() - 类 的构造器org.apache.hadoop.io.UTF8
已过时。
 
UTF8(String) - 类 的构造器org.apache.hadoop.io.UTF8
已过时。
Construct from a given string.
UTF8(UTF8) - 类 的构造器org.apache.hadoop.io.UTF8
已过时。
Construct from a given string.
UTF8.Comparator - org.apache.hadoop.io中的类
已过时。
A WritableComparator optimized for UTF8 keys.
UTF8.Comparator() - 类 的构造器org.apache.hadoop.io.UTF8.Comparator
已过时。
 
UTF8ByteArrayUtils - org.apache.hadoop.streaming中的类
已过时。
UTF8ByteArrayUtils() - 类 的构造器org.apache.hadoop.streaming.UTF8ByteArrayUtils
已过时。
 
UTF8ByteArrayUtils - org.apache.hadoop.util中的类
 
UTF8ByteArrayUtils() - 类 的构造器org.apache.hadoop.util.UTF8ByteArrayUtils
 
utf8Length(String) - 类 中的静态方法org.apache.hadoop.io.Text
For the given string, returns the number of UTF-8 bytes required to encode the string.
Util - org.apache.hadoop.hdfs.server.common中的类
 
Util() - 类 的构造器org.apache.hadoop.hdfs.server.common.Util
 
Util - org.apache.hadoop.metrics.spi中的类
Static utility methods
Utils - org.apache.hadoop.io.file.tfile中的类
Supporting Utility classes used by TFile, and shared by users of TFile.
Utils - org.apache.hadoop.mapred中的类
A utility class.
Utils() - 类 的构造器org.apache.hadoop.mapred.Utils
 
Utils - org.apache.hadoop.record.meta中的类
Various utility functions for Hadooop record I/O platform.
Utils - org.apache.hadoop.record中的类
Various utility functions for Hadooop record I/O runtime.
Utils.OutputFileUtils - org.apache.hadoop.mapred中的类
 
Utils.OutputFileUtils() - 类 的构造器org.apache.hadoop.mapred.Utils.OutputFileUtils
 
Utils.OutputFileUtils.OutputFilesFilter - org.apache.hadoop.mapred中的类
This class filters output(part) files from the given directory It does not accept files with filenames _logs and _SUCCESS.
Utils.OutputFileUtils.OutputFilesFilter() - 类 的构造器org.apache.hadoop.mapred.Utils.OutputFileUtils.OutputFilesFilter
 
Utils.OutputFileUtils.OutputLogFilter - org.apache.hadoop.mapred中的类
This class filters log files from directory given It doesnt accept paths having _logs.
Utils.OutputFileUtils.OutputLogFilter() - 类 的构造器org.apache.hadoop.mapred.Utils.OutputFileUtils.OutputLogFilter
 
Utils.Version - org.apache.hadoop.io.file.tfile中的类
A generic Version class.
Utils.Version(DataInput) - 类 的构造器org.apache.hadoop.io.file.tfile.Utils.Version
Construct the Version object by reading from the input stream.
Utils.Version(short, short) - 类 的构造器org.apache.hadoop.io.file.tfile.Utils.Version
Constructor.

V

validate(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
This is part of the framework API.
validate(DistCpOptionSwitch, boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
 
validateBlockMetadata(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Validate that the contents in the Block matches the file on disk.
validateBlockMetadata(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Validate that the contents in the Block matches the file on disk.
validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
Validate input and output paths
validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
Validate input and output paths
validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
Validate input and output paths
validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
 
validateUTF8(byte[]) - 类 中的静态方法org.apache.hadoop.io.Text
Check if a byte array contains valid utf-8
validateUTF8(byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.Text
Check to see if a byte array is valid utf-8
value() - 类 中的方法org.apache.hadoop.metrics2.Metric
Get the value of the metric
value() - 类 中的方法org.apache.hadoop.metrics2.MetricCounter
 
value() - 类 中的方法org.apache.hadoop.metrics2.MetricGauge
 
value() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
Get the value of the tag
value - 类 中的变量org.apache.hadoop.tools.rumen.JhCounter
 
value - 枚举 中的变量org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
 
VALUE_CLASS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
 
VALUE_HISTOGRAM - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
ValueAggregator - org.apache.hadoop.mapred.lib.aggregate中的接口
This interface defines the minimal protocol for value aggregators.
ValueAggregatorBaseDescriptor - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements the common functionalities of the subclasses of ValueAggregatorDescriptor class.
ValueAggregatorBaseDescriptor() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
 
ValueAggregatorCombiner<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements the generic combiner of Aggregate.
ValueAggregatorCombiner() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
 
ValueAggregatorDescriptor - org.apache.hadoop.mapred.lib.aggregate中的接口
This interface defines the contract a value aggregator descriptor must support.
ValueAggregatorJob - org.apache.hadoop.mapred.lib.aggregate中的类
This is the main class for creating a map/reduce job using Aggregate framework.
ValueAggregatorJob() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
 
ValueAggregatorJobBase<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
This abstract class implements some common functionalities of the the generic mapper, reducer and combiner classes of Aggregate.
ValueAggregatorJobBase() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
 
ValueAggregatorMapper<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements the generic mapper of Aggregate.
ValueAggregatorMapper() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorMapper
 
ValueAggregatorReducer<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements the generic reducer of Aggregate.
ValueAggregatorReducer() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorReducer
 
valueAt(double) - 类 中的方法org.apache.hadoop.tools.rumen.CDFPiecewiseLinearRandomGenerator
TODO This code assumes that the empirical minimum resp. maximum is the epistomological minimum resp. maximum.
valueAt(double) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
 
ValueHistogram - org.apache.hadoop.mapred.lib.aggregate中的类
This class implements a value aggregator that computes the histogram of a sequence of strings.
ValueHistogram() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
 
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.examples.dancing.Pentomino.SolutionCategory
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.fs.HardLink.OSType
返回带有指定名称的该类型的枚举常量。
valueOf(Attributes) - 类 中的静态方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
Return the object represented in the attributes.
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.fs.permission.FsAction
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
Create a FsPermission from a Unix symbolic permission string
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.DatanodeInfo.AdminStates
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.DatanodeReportType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.SafeModeAction
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.UpgradeAction
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager.AccessMode
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.NodeType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.Storage.StorageState
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
返回带有指定名称的该类型的枚举常量。
valueOf(HttpOpParam.Op) - 类 中的静态方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
Get an object for the given op.
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Type
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream.STATE
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.SplittableCompressionCodec.READ_MODE
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionHeader
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionLevel
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionStrategy
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor.CompressionHeader
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.nativeio.Errno
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.SequenceFile.CompressionType
返回带有指定名称的该类型的枚举常量。
valueOf(Attributes) - 异常错误 中的静态方法org.apache.hadoop.ipc.RemoteException
Create RemoteException from attributes
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.FileInputFormat.Counter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.FileOutputFormat.Counter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobClient.TaskStatusFilter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Keys
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.RecordTypes
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Values
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobInProgress.Counter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobPriority
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.SafeModeAction
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.State
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.join.Parser.TType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.Operation
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.Task.Counter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskCompletionEvent.Status
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskLog.LogName
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.Phase
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.State
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TIPStatus
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.Job.JobState
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobACL
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobStatus.State
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat.Counter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob.State
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl.ThreadState
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.Counter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent.EventType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.TaskType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaConfType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaSlope
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.MODE
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.SaslStatus
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.UserGroupInformation.AuthenticationMethod
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptions.FileAttribute
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper.Counter
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.EventType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobConfPropertyNames
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobHistoryParserFactory.VersionDetector
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobPriority
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobType
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.Pre21JobHistoryConstants.Values
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.typedbytes.Type
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.util.ProcessTree.Signal
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.util.QueueProcessingStatistics.State
返回带有指定名称的该类型的枚举常量。
valueOf(String) - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
返回带有指定名称的该类型的枚举常量。
valueOf(char) - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
 
values() - 枚举 中的静态方法org.apache.hadoop.examples.dancing.Pentomino.SolutionCategory
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.fs.HardLink.OSType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.fs.permission.FsAction
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.DatanodeInfo.AdminStates
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.DatanodeReportType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.SafeModeAction
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.UpgradeAction
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager.AccessMode
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.NodeType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.Storage.StorageState
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Type
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream.STATE
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.io.compress.SplittableCompressionCodec.READ_MODE
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionHeader
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionLevel
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionStrategy
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor.CompressionHeader
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 类 中的方法org.apache.hadoop.io.MapWritable
values() - 枚举 中的静态方法org.apache.hadoop.io.nativeio.Errno
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.io.SequenceFile.CompressionType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
values() - 枚举 中的静态方法org.apache.hadoop.mapred.FileInputFormat.Counter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.FileOutputFormat.Counter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobClient.TaskStatusFilter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Keys
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.RecordTypes
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Values
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobInProgress.Counter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobPriority
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.SafeModeAction
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.State
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.join.Parser.TType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.Operation
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.Task.Counter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskCompletionEvent.Status
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskLog.LogName
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.Phase
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.State
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapred.TIPStatus
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.Job.JobState
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobACL
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobStatus.State
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat.Counter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob.State
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl.ThreadState
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.Counter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent.EventType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.TaskType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaConfType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaSlope
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.MODE
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.SaslStatus
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.security.UserGroupInformation.AuthenticationMethod
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptions.FileAttribute
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper.Counter
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.EventType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobConfPropertyNames
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobHistoryParserFactory.VersionDetector
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobPriority
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobType
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.Pre21JobHistoryConstants.Values
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.typedbytes.Type
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.util.ProcessTree.Signal
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.util.QueueProcessingStatistics.State
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
values() - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
按照声明该枚举类型的常量的顺序, 返回 包含这些常量的数组。
variance() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
 
Vector() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
 
VECTOR - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
 
VECTOR_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
vectorSize - 类 中的变量org.apache.hadoop.util.bloom.Filter
The vector size of this filter.
VectorTypeID - org.apache.hadoop.record.meta中的类
Represents typeID for vector.
VectorTypeID(TypeID) - 类 的构造器org.apache.hadoop.record.meta.VectorTypeID
 
verbose - 类 中的变量org.apache.hadoop.streaming.JarBuilder
 
verbose_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
 
verify(String, SSLSession) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem.DummyHostnameVerifier
 
verifyAndExtract(String) - 类 中的方法org.apache.hadoop.security.authentication.util.Signer
Verifies a signed string and extracts the original string.
verifyBlockPlacement(String, LocatedBlock, int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
Verify that the block is replicated on at least minRacks different racks if there is more than minRacks rack in the system.
verifyBlockPlacement(String, LocatedBlock, int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
Verify that the block is replicated on at least minRacks different racks if there is more than minRacks rack in the system.
verifyHostnames(String[]) - 类 中的静态方法org.apache.hadoop.net.NetUtils
Performs a sanity check on the list of hostnames/IPs to verify they at least appear to be valid.
verifyReply(String, String, SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
verify that base64Hash is same as HMacHash(msg)
verifyRequest(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Verify request.
verifyToken(TokenIdent, byte[]) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
Verifies that the given identifier and password are valid and match.
verifyVersion(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
Verify version.
VERSION - 类 中的静态变量org.apache.hadoop.fs.HarFileSystem
 
version - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
 
VERSION - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
WebHdfs version.
VERSION - 类 中的静态变量org.apache.hadoop.tools.HadoopArchives
 
VersionedProtocol - org.apache.hadoop.ipc中的接口
Superclass of all protocols that use Hadoop RPC.
VersionedWritable - org.apache.hadoop.io中的类
A base class for Writables that provides version checking.
VersionedWritable() - 类 的构造器org.apache.hadoop.io.VersionedWritable
 
versionID - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
4: never return null and always return a newly generated access token
versionID - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
Compared to the previous version the following changes have been introduced: (Only the latest change is reflected.
versionID - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
26: Added an additional member to NamespaceInfo
versionID - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
3: added a finalize parameter to updateBlock
versionID - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
3: new method added: getAccessKeys()
versionID - 接口 中的静态变量org.apache.hadoop.mapred.AdminOperationsProtocol
Version 1: Initial version.
versionID - 接口 中的静态变量org.apache.hadoop.mapred.TaskUmbilicalProtocol
Changed the version to 2, since we have a new method getMapOutputs Changed version to 3 to have progress() return a boolean Changed the version to 4, since we have replaced TaskUmbilicalProtocol.progress(String, float, String, org.apache.hadoop.mapred.TaskStatus.Phase, Counters) with statusUpdate(String, TaskStatus) Version 5 changed counters representation for HADOOP-2248 Version 6 changes the TaskStatus representation for HADOOP-2208 Version 7 changes the done api (via HADOOP-3140).
versionID - 接口 中的静态变量org.apache.hadoop.security.authorize.RefreshAuthorizationPolicyProtocol
Version 1: Initial version
versionID - 接口 中的静态变量org.apache.hadoop.security.RefreshUserMappingsProtocol
Version 1: Initial version.
VersionInfo - org.apache.hadoop.util中的类
This class finds the package info for Hadoop and the HadoopVersionAnnotation information.
VersionInfo() - 类 的构造器org.apache.hadoop.util.VersionInfo
 
VersionMismatchException - org.apache.hadoop.fs.s3中的异常错误
Thrown when Hadoop cannot read the version of the data stored in S3FileSystem.
VersionMismatchException(String, String) - 异常错误 的构造器org.apache.hadoop.fs.s3.VersionMismatchException
 
VersionMismatchException - org.apache.hadoop.io中的异常错误
Thrown by VersionedWritable.readFields(DataInput) when the version of an object being read does not match the current implementation version as returned by VersionedWritable.getVersion().
VersionMismatchException(byte, byte) - 异常错误 的构造器org.apache.hadoop.io.VersionMismatchException
 
versionRequest() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
 
versionRequest() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
 
VIntWritable - org.apache.hadoop.io中的类
A WritableComparable for integer values stored in variable-length format.
VIntWritable() - 类 的构造器org.apache.hadoop.io.VIntWritable
 
VIntWritable(int) - 类 的构造器org.apache.hadoop.io.VIntWritable
 
visit(MetricsVisitor) - 类 中的方法org.apache.hadoop.metrics2.Metric
Accept a visitor interface
VLongWritable - org.apache.hadoop.io中的类
A WritableComparable for longs in a variable-length format.
VLongWritable() - 类 的构造器org.apache.hadoop.io.VLongWritable
 
VLongWritable(long) - 类 的构造器org.apache.hadoop.io.VLongWritable
 

W

waitForCompletion() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
Blocks until the job is complete.
waitForCompletion(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
Submit the job to the cluster and wait for it to finish.
waitForProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
 
waitForReadable() - 类 中的方法org.apache.hadoop.net.SocketInputStream
waits for the underlying channel to be ready for reading.
waitForWritable() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
waits for the underlying channel to be ready for writing.
WAITING - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
 
wasRecoveredOnStartup() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
 
WEB_UGI_PROPERTY_NAME - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.JspHelper
 
webAppContext - 类 中的变量org.apache.hadoop.http.HttpServer
 
WebHdfsFileSystem - org.apache.hadoop.hdfs.web中的类
A FileSystem for HDFS over the web.
WebHdfsFileSystem() - 类 的构造器org.apache.hadoop.hdfs.web.WebHdfsFileSystem
 
WebHdfsFileSystem.DtRenewer - org.apache.hadoop.hdfs.web中的类
Delegation token renewer.
WebHdfsFileSystem.DtRenewer() - 类 的构造器org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
 
webServer - 类 中的变量org.apache.hadoop.http.HttpServer
 
width - 类 中的变量org.apache.hadoop.examples.dancing.Pentomino
 
width - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
height of the graph w/o margins
WILDCARD_ACL_VALUE - 类 中的静态变量org.apache.hadoop.security.authorize.AccessControlList
 
WILDCARD_STAMP - 类 中的静态变量org.apache.hadoop.hdfs.server.common.GenerationStamp
 
windowBits() - 枚举 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionHeader
 
windowBits() - 枚举 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor.CompressionHeader
 
WINDOWS - 类 中的静态变量org.apache.hadoop.util.Shell
Set to true on Windows platforms
WithinMultiLineComment - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
WithinOneLineComment - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
 
WordCount - org.apache.hadoop.examples中的类
 
WordCount() - 类 的构造器org.apache.hadoop.examples.WordCount
 
WordCount.IntSumReducer - org.apache.hadoop.examples中的类
 
WordCount.IntSumReducer() - 类 的构造器org.apache.hadoop.examples.WordCount.IntSumReducer
 
WordCount.TokenizerMapper - org.apache.hadoop.examples中的类
 
WordCount.TokenizerMapper() - 类 的构造器org.apache.hadoop.examples.WordCount.TokenizerMapper
 
WORK_FACTOR - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
This constant is accessible by subclasses for historical purposes.
WORKFLOW_ADJACENCY_PREFIX_PATTERN - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
WORKFLOW_ADJACENCY_PREFIX_STRING - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
WORKFLOW_ID - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
WORKFLOW_NAME - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
WORKFLOW_NODE_NAME - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
WORKFLOW_TAGS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
 
wrappedReadForCompressedData(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
Utility wrapper for reading from InputStream.
WrappedRecordReader<K extends WritableComparable,U extends Writable> - org.apache.hadoop.mapred.join中的类
Proxy class for a RecordReader participating in the join framework.
Writable - org.apache.hadoop.io中的接口
A serializable object which implements a simple, efficient, serialization protocol, based on DataInput and DataOutput.
WritableComparable<T> - org.apache.hadoop.io中的接口
A Writable which is also Comparable.
WritableComparator - org.apache.hadoop.io中的类
A Comparator for WritableComparables.
WritableComparator(Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.io.WritableComparator
Construct for a WritableComparable implementation.
WritableComparator(Class<? extends WritableComparable>, boolean) - 类 的构造器org.apache.hadoop.io.WritableComparator
 
WritableFactories - org.apache.hadoop.io中的类
Factories for non-public writables.
WritableFactory - org.apache.hadoop.io中的接口
A factory for a class of Writable.
WritableName - org.apache.hadoop.io中的类
Utility to permit renaming of Writable implementation classes without invalidiating files that contain their class name.
WritableSerialization - org.apache.hadoop.io.serializer中的类
WritableSerialization() - 类 的构造器org.apache.hadoop.io.serializer.WritableSerialization
 
WritableUtils - org.apache.hadoop.io中的类
 
WritableUtils() - 类 的构造器org.apache.hadoop.io.WritableUtils
 
write(DataOutput) - 类 中的方法org.apache.hadoop.conf.Configuration
 
write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
 
write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
 
write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
 
write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
 
write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
 
write(DataOutput) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
 
write(DataOutput) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
 
write(DataOutput) - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
 
write(DataOutput) - 类 中的方法org.apache.hadoop.fs.BlockLocation
Implement write of Writable
write(DataOutput) - 类 中的方法org.apache.hadoop.fs.ContentSummary
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.fs.FileStatus
 
write(int) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
Write one byte
write(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
Writes len bytes from the specified byte array starting at offset off and generate a checksum for each data chunk.
write(DataOutput) - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
Serialize the fields of this object to out.
write(XMLOutputter, MD5MD5CRC32FileChecksum) - 类 中的静态方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
Write that object to xml output.
write(DataOutput) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
Serialize the fields of this object to out.
write(DataOutput, String, String, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.permission.PermissionStatus
Serialize a PermissionStatus from its base components.
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
 
write() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
Write version file.
write(File) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
Writes the bandwidth payload to the Balancer Bandwidth Command packet.
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
serialization method
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
serialization method
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
 
write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.io.ArrayWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.BooleanWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.BytesWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.ByteWritable
 
write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.BlockCompressorStream
Write the data provided to the compression codec, compressing no more than the buffer size less the compression overhead as specified during construction for each block.
write(int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
 
write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
 
write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
Write compressed bytes to the stream.
write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
 
write(int) - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
 
write(int) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
 
write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
 
write(DataInput, int) - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
Writes bytes from a DataInput directly into the buffer.
write(DataOutput) - 类 中的方法org.apache.hadoop.io.DoubleWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
Write the objec to a DataOutput.
write(DataOutput) - 类 中的方法org.apache.hadoop.io.FloatWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.GenericWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.IntWritable
 
write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.IOUtils.NullOutputStream
 
write(int) - 类 中的方法org.apache.hadoop.io.IOUtils.NullOutputStream
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.LongWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.MapWritable
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.io.MD5Hash
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.NullWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.ObjectWritable
 
write(InputStream, int) - 类 中的方法org.apache.hadoop.io.OutputBuffer
Writes bytes from a InputStream directly into the buffer.
write(DataOutput) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.io.Text
serialize write this object to out length uses zero-compressed encoding
write(DataOutput) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.UTF8
已过时。
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.VersionedWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.VIntWritable
 
write(DataOutput) - 类 中的方法org.apache.hadoop.io.VLongWritable
 
write(DataOutput) - 接口 中的方法org.apache.hadoop.io.Writable
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.Counters
Write the set of groups.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.FileSplit
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JobProfile
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JobStatus
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
Write splits in the following format.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
Writes each Writable to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JvmTask
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
 
write(PreparedStatement) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
 
write(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat.DBRecordWriter
Writes a key/value pair.
write(PreparedStatement) - 接口 中的方法org.apache.hadoop.mapred.lib.db.DBWritable
Sets the fields of the object in the PreparedStatement.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
 
write(K, V) - 接口 中的方法org.apache.hadoop.mapred.RecordWriter
Writes a key/value pair.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.Task
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskReport
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
 
write(K, V) - 类 中的方法org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.Counter
Write the binary representation of the counter
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.Counters
Write the set of groups.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.ID
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.JobID
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
 
write(PreparedStatement) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
 
write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
Writes a key/value pair.
write(PreparedStatement) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBWritable
Sets the fields of the object in the PreparedStatement.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
 
write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
 
write(String, K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Write key and value to the namedOutput.
write(String, K, V, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Write key and value to baseOutputPath using the namedOutput.
write(KEYOUT, VALUEOUT, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
Write key value to an output file name.
write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
 
write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.RecordWriter
Writes a key/value pair.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
Serialize the fields of this object to out.
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
 
write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
 
write(KEYOUT, VALUEOUT) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
Generate an output key/value pair.
write(int) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
 
write(byte[], int, int) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
 
write(ByteBuffer) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
 
write(DataOutput) - 类 中的方法org.apache.hadoop.record.Record
 
write(DataOutput) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
 
write(DataOutput) - 类 中的方法org.apache.hadoop.security.Credentials
Stores all the keys to DataOutput
write(int) - 类 中的方法org.apache.hadoop.security.SaslOutputStream
Writes the specified byte to this output stream.
write(byte[]) - 类 中的方法org.apache.hadoop.security.SaslOutputStream
Writes b.length bytes from the specified byte array to this output stream.
write(byte[], int, int) - 类 中的方法org.apache.hadoop.security.SaslOutputStream
Writes len bytes from the specified byte array starting at offset off to this output stream.
write(DataOutput) - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
Write to out
write(DataOutput) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
 
write(DataOutput) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
 
write(DataOutput) - 类 中的方法org.apache.hadoop.security.token.Token
Serialize the fields of this object to out.
write(T) - 类 中的方法org.apache.hadoop.tools.rumen.JsonObjectMapperWriter
 
write(DataOutput) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
 
write(Object) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a Java object as a typed bytes sequence.
write(Writable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.Filter
 
write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.Key
 
write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
 
WRITE_TIMEOUT - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
 
WRITE_TIMEOUT_EXTENSION - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
 
writeAll() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
Write all data storage files.
writeArray(ArrayWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeBool(boolean, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeBool(boolean, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeBool(boolean, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write a boolean to serialized record.
writeBool(boolean, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeBool(boolean) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a boolean as a typed bytes sequence.
writeBool(boolean, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeBoolean(BooleanWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeBuffer(Buffer, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write a buffer to serialized record.
writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeByte(byte, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeByte(byte, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeByte(byte, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write a byte to serialized record.
writeByte(byte, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeByte(byte) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a byte as a typed bytes sequence.
writeByte(byte, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeByte(ByteWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeBytes(byte[], int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a bytes array as a typed bytes sequence, using a given typecode.
writeBytes(byte[]) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a bytes array as a typed bytes sequence.
writeBytes(BytesWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeChunk(byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
 
writeCommand(String, FileSystem, Path) - 类 中的静态方法org.apache.hadoop.mapred.TaskController
 
writeCompressed(DataOutput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
Subclasses implement this instead of CompressedWritable.write(DataOutput).
writeCompressedByteArray(DataOutput, byte[]) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
writeCompressedBytes(DataOutputStream) - 接口 中的方法org.apache.hadoop.io.SequenceFile.ValueBytes
Write compressed bytes to outStream.
writeCompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
writeCompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
writeCompressedString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
writeCompressedStringArray(DataOutput, String[]) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
writeCorruptedData(RandomAccessFile) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
 
writeDouble(double, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeDouble(double, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeDouble(double, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write a double precision floating point number to serialized record.
writeDouble(double, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeDouble(double) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a double as a typed bytes sequence.
writeDouble(double, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeDouble(DoubleWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeEnum(DataOutput, Enum<?>) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
writes String value of enum to DataOutput.
writeFile(SequenceFile.Sorter.RawKeyValueIterator, SequenceFile.Writer) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
Writes records from RawKeyValueIterator into a file represented by the passed writer
writeFloat(float, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeFloat(float, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeFloat(float, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write a single-precision float to serialized record.
writeFloat(float, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeFloat(float) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a float as a typed bytes sequence.
writeFloat(float, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeFloat(FloatWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeHeader(DataOutputStream) - 类 中的方法org.apache.hadoop.util.DataChecksum
Writes the checksum header to the output stream out.
writeInt(int, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeInt(int, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeInt(int, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write an integer to serialized record.
writeInt(int, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeInt(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes an integer as a typed bytes sequence.
writeInt(int, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeInt(IntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeKey(OutputStream) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Writing the key to the output stream.
writeKey(K) - 类 中的方法org.apache.hadoop.streaming.io.InputWriter
Writes an input key.
writeKey(Writable) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesInputWriter
 
writeKey(Object) - 类 中的方法org.apache.hadoop.streaming.io.TextInputWriter
 
writeKey(Object) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesInputWriter
 
writeList(List) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a list as a typed bytes sequence.
writeListFooter() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a list footer.
writeListHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a list header.
writeLocalJobFile(Path, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobLocalizer
Write the task specific job-configuration file.
writeLong(long, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeLong(long, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeLong(long, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write a long integer to serialized record.
writeLong(long, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeLong(long) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a long as a typed bytes sequence.
writeLong(long, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeLong(LongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeMap(Map) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a map as a typed bytes sequence.
writeMap(MapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeMapHeader(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a map header.
writeObject(DataOutput, Object, Class, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
Write a Writable, String, primitive type, or an array of the preceding.
writePartitionFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraInputFormat
Use the input splits to take samples of the input and generate sample keys.
writePartitionFile(JobConf, InputSampler.Sampler<K, V>) - 类 中的静态方法org.apache.hadoop.mapred.lib.InputSampler
Write a partition file for the given job, using the Sampler provided.
writePartitionFile(Job, InputSampler.Sampler<K, V>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.InputSampler
Write a partition file for the given job, using the Sampler provided.
writeRAMFiles(DataOutput, RAMDirectory, String[]) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
Write a number of files from a ram directory to a data output.
writeRaw(byte[]) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a raw sequence of typed bytes.
writeRaw(byte[], int, int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a raw sequence of typed bytes.
writeRecord(Record) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeSortedMap(SortedMapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Write a String as a VInt n, followed by n Bytes as in Text format.
writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.Text
Write a UTF8 encoded string to out
writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.UTF8
已过时。
Write a UTF-8 encoded string.
writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
writeString(String, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
 
writeString(String, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
 
writeString(String, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
Write a unicode string to serialized record.
writeString(String, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
 
writeString(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a string as a typed bytes sequence.
writeString(String, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
 
writeStringArray(DataOutput, String[]) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
 
writeText(Text) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeTo(OpenEntity, Class<?>, Type, Annotation[], MediaType, MultivaluedMap<String, Object>, OutputStream) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
 
writeTo(OutputStream) - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
Write to a file stream
writeToBlock(Block, boolean, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
Start writing to a block file If isRecovery is true and the block pre-exists, then we kill all volumeMap.put(b, v); volumeMap.put(b, v); other threads that might be writing to this block, and then reopen the file.
writeToBlock(Block, boolean, boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
Creates the block and returns output streams to write data and CRC
writeTokenStorageFile(Path, Configuration) - 类 中的方法org.apache.hadoop.security.Credentials
 
writeTokenStorageToStream(DataOutputStream) - 类 中的方法org.apache.hadoop.security.Credentials
 
writeTypedBytes(TypedBytesWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeUncompressedBytes(DataOutputStream) - 接口 中的方法org.apache.hadoop.io.SequenceFile.ValueBytes
Writes the uncompressed bytes to the outStream.
writeUncompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
writeUncompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
 
writeValue(OutputStream) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
Writing the value to the output stream.
writeValue(V) - 类 中的方法org.apache.hadoop.streaming.io.InputWriter
Writes an input value.
writeValue(Writable) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesInputWriter
 
writeValue(Object) - 类 中的方法org.apache.hadoop.streaming.io.TextInputWriter
 
writeValue(Object) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesInputWriter
 
writeValue(DataOutputStream, boolean) - 类 中的方法org.apache.hadoop.util.DataChecksum
Writes the current checksum to the stream.
writeValue(byte[], int, boolean) - 类 中的方法org.apache.hadoop.util.DataChecksum
Writes the current checksum to a buffer.
writeVector(ArrayList) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a vector as a typed bytes sequence.
writeVectorHeader(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
Writes a vector header.
writeVInt(DataOutput, int) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Encoding an integer into a variable-length encoding format.
writeVInt(DataOutput, int) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Serializes an integer to a binary stream with zero-compressed encoding.
writeVInt(DataOutput, int) - 类 中的静态方法org.apache.hadoop.record.Utils
Serializes an int to a binary stream with zero-compressed encoding.
writeVInt(VIntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeVLong(DataOutput, long) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
Encoding a Long integer into a variable-length encoding format.
writeVLong(DataOutput, long) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
Serializes a long to a binary stream with zero-compressed encoding.
writeVLong(DataOutput, long) - 类 中的静态方法org.apache.hadoop.record.Utils
Serializes a long to a binary stream with zero-compressed encoding.
writeVLong(VLongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeWritable(Writable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
 
writeXml(OutputStream) - 类 中的方法org.apache.hadoop.conf.Configuration
Write out the non-default properties in this configuration to the given OutputStream.
writeXml(Writer) - 类 中的方法org.apache.hadoop.conf.Configuration
Write out the non-default properties in this configuration to the given Writer.
WWW_AUTHENTICATE - 类 中的静态变量org.apache.hadoop.security.authentication.client.KerberosAuthenticator
HTTP header used by the SPNEGO server endpoint during an authentication sequence.

X

xceiverCount - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
 
xdr_int(int) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
Puts an integer into the buffer as 4 bytes, big-endian.
xdr_int(int) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
Puts an integer into the buffer as 4 bytes, big-endian.
xdr_string(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
已过时。
Puts a string into the buffer by first writing the size of the string as an int, followed by the bytes of the string, padded if necessary to a multiple of 4.
xdr_string(String) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
Puts a string into the buffer by first writing the size of the string as an int, followed by the bytes of the string, padded if necessary to a multiple of 4.
xmargin - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
margin space on x axis
XmlRecordInput - org.apache.hadoop.record中的类
XML Deserializer.
XmlRecordInput(InputStream) - 类 的构造器org.apache.hadoop.record.XmlRecordInput
Creates a new instance of XmlRecordInput
XmlRecordOutput - org.apache.hadoop.record中的类
XML Serializer.
XmlRecordOutput(OutputStream) - 类 的构造器org.apache.hadoop.record.XmlRecordOutput
Creates a new instance of XmlRecordOutput
XMLUtils - org.apache.hadoop.util中的类
General xml utilities.
XMLUtils() - 类 的构造器org.apache.hadoop.util.XMLUtils
 
xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
 
xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
 
xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
 
xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.Filter
Peforms a logical XOR between this filter and a specified filter.

Y

ymargin - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
margin space on y axis

Z

ZlibCompressor - org.apache.hadoop.io.compress.zlib中的类
A Compressor based on the popular zlib compression algorithm.
ZlibCompressor() - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibCompressor
Creates a new compressor with the default compression level.
ZlibCompressor(Configuration) - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibCompressor
Creates a new compressor, taking settings from the configuration.
ZlibCompressor(ZlibCompressor.CompressionLevel, ZlibCompressor.CompressionStrategy, ZlibCompressor.CompressionHeader, int) - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibCompressor
Creates a new compressor using the specified compression level.
ZlibCompressor.CompressionHeader - org.apache.hadoop.io.compress.zlib中的枚举
The type of header for compressed data.
ZlibCompressor.CompressionLevel - org.apache.hadoop.io.compress.zlib中的枚举
The compression level for zlib library.
ZlibCompressor.CompressionStrategy - org.apache.hadoop.io.compress.zlib中的枚举
The compression level for zlib library.
ZlibDecompressor - org.apache.hadoop.io.compress.zlib中的类
A Decompressor based on the popular zlib compression algorithm.
ZlibDecompressor(ZlibDecompressor.CompressionHeader, int) - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibDecompressor
Creates a new decompressor.
ZlibDecompressor() - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibDecompressor
 
ZlibDecompressor.CompressionHeader - org.apache.hadoop.io.compress.zlib中的枚举
The headers to detect from compressed data.
ZlibFactory - org.apache.hadoop.io.compress.zlib中的类
A collection of factories to create the right zlib/gzip compressor/decompressor instances.
ZlibFactory() - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibFactory
 
ZombieCluster - org.apache.hadoop.tools.rumen中的类
ZombieCluster rebuilds the cluster topology using the information obtained from job history logs.
ZombieCluster(LoggedNetworkTopology, MachineNode) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieCluster
Construct a homogeneous cluster.
ZombieCluster(Path, MachineNode, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieCluster
Construct a homogeneous cluster.
ZombieCluster(InputStream, MachineNode) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieCluster
Construct a homogeneous cluster.
ZombieJob - org.apache.hadoop.tools.rumen中的类
ZombieJob is a layer above LoggedJob raw JSON objects.
ZombieJob(LoggedJob, ClusterStory, long) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJob
This constructor creates a ZombieJob with the same semantics as the LoggedJob passed in this parameter
ZombieJob(LoggedJob, ClusterStory) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJob
This constructor creates a ZombieJob with the same semantics as the LoggedJob passed in this parameter
ZombieJobProducer - org.apache.hadoop.tools.rumen中的类
Producing JobStorys from job trace.
ZombieJobProducer(Path, ZombieCluster, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
Constructor
ZombieJobProducer(Path, ZombieCluster, Configuration, long) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
Constructor
ZombieJobProducer(InputStream, ZombieCluster) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
Constructor
ZombieJobProducer(InputStream, ZombieCluster, long) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
Constructor
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 

Copyright © 2009 The Apache Software Foundation